La conférence pour l'éthique et la diversité dans la tech
avec des crêpes et du cœur Mixit heart

Speaker 2025

Guillaume Laforge

Developer Advocate for Google Cloud

Guillaume Laforge is Developer Advocate for Google Cloud Platform, at day, focusing on generative AI, LLMs, serverless technologies and event-driven architecture, and at night, he is a Java Champion and wears his Apache Groovy hat.

    2025 -LLMs, toutes ces questions que vous n'avez jamais osé poser à leur sujet

    • #TALK

    Les grands modèles de langage (LLM) ont pris d'assaut le monde, alimentant des applications allant des chatbots à la génération de contenu. Pourtant, sous le capot, ces modèles restent énigmatiques.

    Cette présentation plongera dans les recoins cachés de la technologie des LLMs qui laissent souvent les développeurs perplexes. Il est temps de poser ces questions que vous n'avez jamais osé poser sur les mystères à la base des LLMs !

    Voici quelques questions auxquelles nous répondrons :

    • Vous vous demandez pourquoi les LLM crachent des tokens au lieu de mots ? D'où viennent ces tokens ?
    • Pourquoi ne sont-ils pas toujours très intelligents en mathématiques ?
    • Quelle est la différence entre un modèle "fondamental" / "pré-entraîné" et un modèle "fine-tuné" ?
    • Comment un modèle sait-il quand il a fini de répondre à votre question ?
    • Nous ajustons souvent des hyperparamètres comme la température, top-p, top-k, mais savez-vous vraiment comment ils affectent le choix des tokens ?
    • La quantification rend les modèles plus petits, mais que sont tous ces encodages numériques comme fp32, bfloat16, int8, etc. ?
    • Les LLM sont bons en traduction, n'est-ce pas ? Parlez-vous aussi le langage Base64 ?

    Nous réaliserons ensemble que les LLM sont loin d'être parfaits :

    • Nous avons tous entendu parler d'hallucinations, ou devrions-nous dire de confabulations ?
    • Avez vous entendu parler de la “reversal curse” qui fait que les LLM ignorent certains faits d'un point de vue différent ?
    • On pourrait penser que les LLM sont déterministes à basse température, mais vous seriez également surpris de voir comment le contexte influence les réponses des LLM...

    Attachez vos ceintures, il est temps de dissiper la magie des LLM et de poser ces questions que nous n'avons jamais osé poser !

    2025 -Retrieval Augmented Generation (RAG) : Obtenez des réponses de qualité avec des techniques avancées

    • #TALK

    Se lancer dans l'aventure RAG peut sembler facile, mais obtenir des résultats satisfaisants s'avère souvent complexe. Des réponses inexactes, incomplètes ou obsolètes, une récupération de documents sous-optimale et une mauvaise segmentation de texte peuvent rapidement ternir votre enthousiasme initial.

    Dans cette session, nous utiliserons Java et LangChain4j pour améliorer vos implémentations RAG. Nous explorerons :

    • Stratégies de segmentation avancées : Optimisez le chunking des documents pour améliorer le contexte et la pertinence.
    • Techniques de raffinement de requêtes : Étendez et comprimez les requêtes pour améliorer la précision du retrieval.
    • Filtrage par métadonnées : Utilisez les métadonnées pour identifier les documents les plus pertinents.
    • Reranking des documents : Reclassez les documents récupérés pour une pertinence optimale des résultats.
    • Gestion du cycle de vie des données : Implémentez des processus pour maintenir la fraîcheur et la pertinence des données.
    • Évaluation et présentation : Évaluez l'efficacité de votre pipeline RAG et fournissez des résultats qui répondent aux attentes des utilisateurs.

    Rejoignez-nous pour transformer votre expérience RAG simpliste en une expérience qui ravira vos utilisateurs avec des réponses significatives et précises.

    2024 -Gemini, le Large Language Model de Google

    • ► Vidéo
    • #TALK

    Sous le capot de Bard, vous trouverez le LLM “Gemini”. Mais savez-vous que vous pouvez également utiliser son API au travers de Google Cloud et l’intégrer dans vos applications ? Gemini propose différentes tailles, de Nano à Ultra, en passant par Pro. Le grand différenciant, c’est aussi son côté “multimodal” : vous pouvez lui donner du texte, comme des images ou des vidéos ! De nouveaux cas d’utilisation s’ouvrent à vous !

    Dans cette présentation, nous partirons à la découverte du modèle Gemini. Avec notre casquette Java sur la tête, nous étudierons comment faire appel à son API, en particulier à l’aide de la librairie LangChain4j.

    Comment tirer parti au maximum de Gemini ? Nous verrons comment extraire des données non-structurées, comment classifier du texte, comment étendre les connaissances du modèle avec l’approche RAG (Retrieval Augmented Generation) mais aussi à l’aide de “l’appel de fonction” pour invoquer des services externes lors de la génération de texte.

    Accrochez-vous ! Le décollage de la capsule Gemini est imminent !

    2024 -AI and Code Quality: Revolutionizing Development

    • #ON_AIR

    Dive into the cutting-edge intersection of artificial intelligence and software development in this captivating 25-minute live interview. Discover how tools like GitHub Copilot, JetBrains AI Assistant, and Google's Gemini Large Language Model are transforming the coding landscape by enhancing developer productivity, streamlining workflows, and ensuring higher code quality through practical demonstrations and insights. From harnessing generative AI for front-end and back-end programming languages to leveraging AI-powered features for exploring legacy code and implementing new functionalities, learn about the vast possibilities and the precautions needed to navigate this evolving domain. Join us for a session that promises to unfold the significant impact of AI on day-to-day development tasks, exploring both its capabilities and its challenges in modern software creation.

Hosted and supported by