Planification Monte Carlo orientée information - Inria - Institut national de recherche en sciences et technologies du numérique Accéder directement au contenu
Communication Dans Un Congrès Année : 2019

Planification Monte Carlo orientée information

Résumé

Dans cet article, nous nous intéressons à la résolution de problèmes de collecte active d'information exprimés sous la forme de rho-POMDP, une extension des Processus Décisionnels de Markov Partiellement Observables (POMDP) dont la récompense rho dépend de l'état de croyance. Des approches utilisées pour résoudre les POMDP ont déjà été étendues au cadre rho-POMDP lorsque la récompense rho est convexe ou lipschtizienne, mais ces approches ne permettent pas de résoudre toutes les instances de rho-POMDP. Afin de proposer un algorithme en-ligne efficace qui s'affranchit des contraintes sur rho, cet article se concentre sur les méthodes à base de recherche arborescente Monte Carlo et cherche à adapter POMCP à la résolution de rho-POMDP. Comme les récompenses dépendent de l'état de croyance, il est nécessaire de modifier POMCP (i) pour échantillonner plusieurs états lors des trajectoires suivies et (ii) pour éviter les biais dans l'estimation des valeurs. Des expériences ont été conduites pour étudier les propriétés de l'approche proposée.
Fichier principal
Vignette du fichier
thomas_jfpda2019_version_finale_fr.pdf (355.8 Ko) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)
Loading...

Dates et versions

hal-02350573 , version 1 (06-11-2019)

Identifiants

  • HAL Id : hal-02350573 , version 1

Citer

Vincent Thomas, Gérémy Hutin, Olivier Buffet. Planification Monte Carlo orientée information. JFPDA 2019 - Journées Francophones sur la Planification, la Décision et l'Apprentissage pour la conduite de systèmes, Jul 2019, Toulouse, France. ⟨hal-02350573⟩
120 Consultations
78 Téléchargements

Partager

Gmail Facebook X LinkedIn More