Scruter pour mieux comprendre : Deep Learning et mécanismes d'attentionTalk

Scruter pour mieux comprendre : Deep Learning et mécanismes d'attention

FR
Design
Design

L’apprentissage profond de représentations (le Deep Learning) est une famille de méthodes du domaine « intelligence artificielle » permettant d’apprendre de connaissances à partir de masses de données (textes, images, vidéos etc.). Plus précisément, ces modèles permettent de faire des prédictions sur des nouvelles données. Cette intervention passera en revue l’historique de cette thématique, les enjeux majeurs et quelques techniques clé.

Ensuite, elle présentera un concept récent, les mécanismes d'attention. Comme un humain scrutant une scène par des mouvements oculaires, ces méthodes permettent à un réseau de neurones de se focaliser sur une partie pertinente des données d'entrée : une partie d'un visage pour la reconnaissance faciale ou une partie d'une phrase pour la traduction.

Christian Wolf

Christian WOLF is associate professor (Maitre de Conférences, HDR) at INSA de Lyon and LIRIS UMR 5205, a CNRS laboratory, since 2005. Since September 2017 he is on leave at INRIA and the CITI laboratory. He is interested in computer vision and machine learning, deep learning, especially in the visual analysis of complex scenes in motion: gesture and activity recognition and pose estimation. In his work he puts an emphasis on models of complex interactions, on structured models, graphical models and on deep learning.

Our sponsors in 2018

Main Sponsors
Zenika
Hiptest
Worldline
Sopra Steria
Data Galaxy
Semarchy
Esker
Sogelink
sogeti
Only Lyon
Partner Sponsors
Saagie
Clever Cloud
Woonoz - Projet Voltaire
LDLC
Red Hat
Talan
HIIT
ISR
Akuiteo
Axway
Feelinjob
Enedis
SuperTilt
CGI