Sous le capot de Bard, vous trouverez le LLM “Gemini”. Mais savez-vous que vous pouvez également utiliser son API au travers de Google Cloud et l’intégrer dans vos applications ? Gemini propose différentes tailles, de Nano à Ultra, en passant par Pro. Le grand différenciant, c’est aussi son côté “multimodal” : vous pouvez lui donner du texte, comme des images ou des vidéos ! De nouveaux cas d’utilisation s’ouvrent à vous !
Dans cette présentation, nous partirons à la découverte du modèle Gemini. Avec notre casquette Java sur la tête, nous étudierons comment faire appel à son API, en particulier à l’aide de la librairie LangChain4j.
Comment tirer parti au maximum de Gemini ? Nous verrons comment extraire des données non-structurées, comment classifier du texte, comment étendre les connaissances du modèle avec l’approche RAG (Retrieval Augmented Generation) mais aussi à l’aide de “l’appel de fonction” pour invoquer des services externes lors de la génération de texte.
Accrochez-vous ! Le décollage de la capsule Gemini est imminent !
Amphithéâtre Hamilton
Comme vous êtes connecté vous pouvez ajouter vos retours sur ce talk si vous l'avez vu.
Vous avez besoin d'être connecté sur le site pour saisir vos notes et commentaires. Ces derniers ne seront visibles que par le speaker. Bien évidemment les commentaires doivent être en adéquation avec le code de conduite de la conférence.