Aller au contenu principal

Aurélien Gauffre

Jeudi 28 Novembre 2024

Méthodes Contrastives pour l'amélioration de l'Apprentissage de Représentation

Résumé :

Le succès de l’apprentissage profond repose en grande partie sur sa capacité à extraire des représentations riches et hiérarchisées des données, grâce à un entraînement intensif sur de vastes ensembles de données annotées. Toutefois, ces annotations sont souvent coûteuses ou rares, posant ainsi un défi pour de nombreuses applications pratiques. Pour répondre à cette problématique, les chercheurs ont développé des techniques d’apprentissage auto-supervisé et semi-supervisé, qui exploitent les données non annotées pour améliorer les performances des modèles.

Cette thèse explore les avancées et les applications de l’apprentissage contrastif, notamment dans les domaines de l’apprentissage semi-supervisé, auto-supervisé, la classification multi-étiquettes, ainsi que la réduction des biais. L’apprentissage contrastif, en opposant des paires de données similaires et dissemblables, permet au modèle un apprentissage efficace. Ce travail vise à relever les défis de l’apprentissage de représentations à travers un cadre et des méthodologies innovantes exploitant les avantages de l’apprentissage contrastif.

 

Date et lieu

Jeudi 28 novembre 2024, à 15:45
Bâtiment IMAG, Salle Séminaire 2
et Zoom

Composition du jury

Massih-Reza Amini
Professeur, Université Grenoble Alpes (Directeur de thèse)

Jakob Verbeek
Chercheur, FAIR, Meta (Rapporteur)
Stéphane Canu
Professeur, Université de Normandie (Rapporteur)
Julien Mairal
Directeur de Recherche, INRIA Grenoble (Examinateur)

Isabelle Guyon
Directrice de recherche, Google DeepMind (Examinatrice)

Publié le 3 décembre 2024

Mis à jour le 21 janvier 2025