Model-Free Monte Carlo-like Policy Evaluation

Abstract : We propose an algorithm for estimating the finite-horizon expected return of a closed loop control policy from an a priori given (off-policy) sample of one-step transitions. It averages cumulated rewards along a set of ''broken trajectories'' made of one-step transitions selected from the sample on the basis of the control policy. Under some Lipschitz continuity assumptions on the system dynamics, reward function and control policy, we provide bounds on the bias and variance of the estimator that depend only on the Lipschitz constants, on the number of broken trajectories used in the estimator, and on the sparsity of the sample of one-step transitions.
Type de document :
Document associé à des manifestations scientifiques
Journées MAS et Journée en l'honneur de Jacques Neveu, Aug 2010, Talence, France
Liste complète des métadonnées

Littérature citée [1 références]  Voir  Masquer  Télécharger

https://hal.inria.fr/inria-00510325
Contributeur : Conférence Mas2010 <>
Soumis le : mercredi 18 août 2010 - 09:42:53
Dernière modification le : mercredi 29 novembre 2017 - 09:59:31
Document(s) archivé(s) le : vendredi 19 novembre 2010 - 02:30:28

Fichier

REN-Ernst.pdf
Fichiers produits par l'(les) auteur(s)

Identifiants

  • HAL Id : inria-00510325, version 1

Collections

Citation

Raphael Fonteneau, Susan Murphy, Louis Wehenkel, Damien Ernst. Model-Free Monte Carlo-like Policy Evaluation. Journées MAS et Journée en l'honneur de Jacques Neveu, Aug 2010, Talence, France. 〈inria-00510325〉

Partager

Métriques

Consultations de la notice

92

Téléchargements de fichiers

43