Apprentissage par renforcement pour les processus décisionnels de Markov partiellement observés. - Archive ouverte HAL Access content directly
Journal Articles Revue des Sciences et Technologies de l'Information - Série RIA : Revue d'Intelligence Artificielle Year : 2003

Apprentissage par renforcement pour les processus décisionnels de Markov partiellement observés.

Abstract

Nous présentons un nouvel algorithme qui contribue à étendre le formalisme de l'Apprentissage par Renforcement (RL) aux Processus Décisionnels Markoviens Partiellement Observés (POMDP). L'idée principale de notre méthode est de construire une extension d'état, appelée observable exhaustif, qui permet de définir un nouveau processus qui est alors markovien. Nous démontrons que résoudre ce nouveau processus, auquel on peut appliquer les techniques classiques de RL, apporte une solution optimale au POMDP original. Nous appliquons l'algorithme déduit de ce résultat sur plusieurs exemples pour en tester la validité et la robustesse. || We present a new algorithm that extends the Reinforcement Learning framework to Partially Observed Markov Decision Processes (POMDP). The main idea of our method is to build a state extension, called exhaustive observable, which allow us to define a next
Not file

Dates and versions

inria-00099563 , version 1 (26-09-2006)

Identifiers

  • HAL Id : inria-00099563 , version 1

Cite

Alain Dutech, Manuel Samuelides. Apprentissage par renforcement pour les processus décisionnels de Markov partiellement observés.. Revue des Sciences et Technologies de l'Information - Série RIA : Revue d'Intelligence Artificielle, 2003, 17 (4), pp.559-589. ⟨inria-00099563⟩
327 View
1 Download

Share

Gmail Facebook Twitter LinkedIn More