Taylor expansion policy optimization - Inria - Institut national de recherche en sciences et technologies du numérique Accéder directement au contenu
Communication Dans Un Congrès Année : 2020

Taylor expansion policy optimization

Michal Valko
Rémi Munos
  • Fonction : Auteur
  • PersonId : 836863

Résumé

In this work, we investigate the application of Taylor expansions in reinforcement learning. In particular, we propose Taylor expansion policy optimization , a policy optimization formalism that generalizes prior work (e.g., TRPO) as a first-order special case. We also show that Taylor expansions intimately relate to off-policy evaluation. Finally, we show that this new formulation entails modifications which improve the performance of several state-of-the-art distributed algorithms.
Fichier principal
Vignette du fichier
Taylor_expansion_policy_optimization__arxiv_ (3).pdf (765.05 Ko) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)
Loading...

Dates et versions

hal-02509561 , version 1 (16-03-2020)

Identifiants

  • HAL Id : hal-02509561 , version 1

Citer

Yunhao Tang, Michal Valko, Rémi Munos. Taylor expansion policy optimization. International Conference on Machine Learning, 2020, Vienna, Austria. ⟨hal-02509561⟩
63 Consultations
125 Téléchargements

Partager

Gmail Facebook X LinkedIn More