Aller au contenu principal

Maxence Grand

Apprentissage de modèle d'actions basé sur l'induction grammaticale régulière pour la planification en intelligence artificielle

Mercredi 14 décembre 2022

Résumé :
Le domaine de l’intelligence artificielle vise à concevoir des agents autonomes capables de percevoir, d’apprendre et d’agir sans aucune intervention humaine pour accomplir des tâches complexes. Pour accomplir des tâches complexes, l’agent autonome doit planifier les meilleures actions possibles et les exécuter. Pour ce faire, l’agent autonome a besoin d’un modèle d’actions. Un modèle d’actions est une représentation sémantique des actions qu’il peut exécuter. Dans un modèle d’actions, une action est représentée à l’aide (1) d’un ensemble de pré-conditions: l’ensemble des conditions qui doivent être satisfaites pour que l’action puisse être exécutée et (2) d’un ensemble d’effets: l’ensemble des propriétés du monde qui vont être modifiées par l’exécution de l’action. La modélisation STRIPS est une méthode classique pour concevoir ces modèles d’actions. Cependant, les modèles d’actions STRIPS sont généralement trop restrictifs pour être utilisés dans des applications réelles. Il existe d’autres formes de modèles d’actions: les modèles d’actions temporels permettant de représenter des actions pouvant être exécutées en concurrence, les modèles d’actions HTN permettant de représenter les actions sous formes de tâches et de sous tâches, etc. Ces modèles sont moins restrictifs, mais moins les modèles sont restrictifs plus ils sont difficiles à spécifier. Dans cette thèse, nous nous intéressons aux méthodes facilitant l’acquisition de ces modèles d’actions basées sur les techniques d’apprentissage automatique.
Dans cette thèse, nous présentons AMLSI (Action Model Learning with State machine Interaction), une approche d’apprentissage de modèles d’actions basée sur l’induction grammaticale régulière. Dans un premier temps nous montrerons que l’approche AMLSI permet d’apprendre des modèles d’actions STRIPS. Nous montrerons les différentes propriétés de l’approche prouvant son efficacité: robustesse, convergence, requiert peu de données d’apprentissage, qualité des modèles appris. Dans un second temps, nous proposerons deux extensions pour l’apprentissage de modèles d’actions temporels et de modèles d’actions HTN.

Date et Lieu

Mercredi 14 décembre 2022 à 10h00
Amphithéâtre de la Maison du doctorat Jean Kuntzmann

Superviseurs

Damien PELLIER
Humbert FIORINO

Composition du Jury

Olivier BUFFET
Chargé de recherche, INRIA Nancy Grand Est
Dominique DUHAUT
Professeur des universités, Université Bretagne Sud
Gérard BAILLY
Directeur de recherche, CNRS
Massih-Rezah AMINI
Professeur des universités, Université Grenoble Alpes

Publié le 9 décembre 2022

Mis à jour le 9 décembre 2022