Jeudi 28 Novembre 2024
- Imprimer
- Partager
- Partager sur Facebook
- Share on X
- Partager sur LinkedIn
Méthodes Contrastives pour l'amélioration de l'Apprentissage de Représentation
Résumé :
Le succès de l’apprentissage profond repose en grande partie sur sa capacité à extraire des représentations riches et hiérarchisées des données, grâce à un entraînement intensif sur de vastes ensembles de données annotées. Toutefois, ces annotations sont souvent coûteuses ou rares, posant ainsi un défi pour de nombreuses applications pratiques. Pour répondre à cette problématique, les chercheurs ont développé des techniques d’apprentissage auto-supervisé et semi-supervisé, qui exploitent les données non annotées pour améliorer les performances des modèles.
Cette thèse explore les avancées et les applications de l’apprentissage contrastif, notamment dans les domaines de l’apprentissage semi-supervisé, auto-supervisé, la classification multi-étiquettes, ainsi que la réduction des biais. L’apprentissage contrastif, en opposant des paires de données similaires et dissemblables, permet au modèle un apprentissage efficace. Ce travail vise à relever les défis de l’apprentissage de représentations à travers un cadre et des méthodologies innovantes exploitant les avantages de l’apprentissage contrastif.
Date et lieu
Jeudi 28 novembre 2024, à 15:45
Bâtiment IMAG, Salle Séminaire 2
et Zoom
Composition du jury
Massih-Reza Amini
Professeur, Université Grenoble Alpes (Directeur de thèse)
Jakob Verbeek
Chercheur, FAIR, Meta (Rapporteur)
Stéphane Canu
Professeur, Université de Normandie (Rapporteur)
Julien Mairal
Directeur de Recherche, INRIA Grenoble (Examinateur)
Isabelle Guyon
Directrice de recherche, Google DeepMind (Examinatrice)
- Imprimer
- Partager
- Partager sur Facebook
- Share on X
- Partager sur LinkedIn