Skip to Main content Skip to Navigation
Preprints, Working Papers, ...

What Doubling Tricks Can and Can't Do for Multi-Armed Bandits

Résumé : Un algorithme en ligne d'apprentissage par renforcement est dit "à tout moment" (anytime) s'il n'a pas besoin de connaître à l'avance l'horizon T de l'expérience. Une technique bien connue pour obtenir un algorithme à tout moment à partir d'un algorithme qui ne l'est pas est "l'astuce de doublement" (Doubling Trick). Dans le contexte des bandits multi-bras adverses ou stochastiques, la performance d'un algorithme est mesurée par son regret, et nous étudions deux familles de séquences d'horizons croissants (géométrique et exponentielle), pour généraliser des résultats précédemment connus que certaines astuces de doublement peuvent être utilisées pour conserver certaines limites de regret. Dans un cadre très générique, nous prouvons qu'une astuce géométrique de doublement peut être utilisée pour conserver les bornes (minimax) en $R_T = O(\sqrt{T})$ mais ne peut pas conserver les bornes (dépendantes de la distribution) en $R_T = O(\log T)$. Nous donnons un aperçu des raisons pour lesquelles les astuces de doublage exponentiel peuvent être meilleures, car elles conservent les bornes en $R_T = O(\log T)$, et sont proches de conserver les bornes en $R_T = O(\sqrt{T}$).
Complete list of metadatas

https://hal.inria.fr/hal-01736357
Contributor : Lilian Besson <>
Submitted on : Monday, March 19, 2018 - 11:51:34 AM
Last modification on : Friday, July 10, 2020 - 4:18:28 PM
Document(s) archivé(s) le : Tuesday, September 11, 2018 - 7:04:45 AM

Files

BK__COLT_2018.pdf
Files produced by the author(s)

Licence


Distributed under a Creative Commons Attribution - NonCommercial - ShareAlike 4.0 International License

Identifiers

  • HAL Id : hal-01736357, version 1
  • ARXIV : 1803.06971

Citation

Lilian Besson, Emilie Kaufmann. What Doubling Tricks Can and Can't Do for Multi-Armed Bandits. 2018. ⟨hal-01736357⟩

Share

Metrics

Record views

659

Files downloads

777