Some highlights on Source-to-Source Adjoint AD

Abstract : Algorithmic Differentiation (AD) provides the analytic derivatives of functions given as programs. Adjoint AD, which computes gradients, is similar to Back Propagation for Machine Learning. AD researchers study strategies to overcome the difficulties of adjoint AD, to get closer to its theoretical efficiency. To promote fruitful exchanges between Back Propagation and adjoint AD, we present three of these strategies and give our view of their interest and current status.
Type de document :
Communication dans un congrès
NIPS 2017 - workshop The future of gradient-based machine learning software & techniques, Dec 2017, Long Beach, Californie, United States. pp.1-5
Liste complète des métadonnées

Littérature citée [17 références]  Voir  Masquer  Télécharger

https://hal.inria.fr/hal-01655085
Contributeur : Laurent Hascoet <>
Soumis le : lundi 4 décembre 2017 - 16:07:22
Dernière modification le : jeudi 11 janvier 2018 - 16:16:39

Fichier

StAdMl.pdf
Fichiers produits par l'(les) auteur(s)

Identifiants

  • HAL Id : hal-01655085, version 1

Collections

Citation

Laurent Hascoët. Some highlights on Source-to-Source Adjoint AD. NIPS 2017 - workshop The future of gradient-based machine learning software & techniques, Dec 2017, Long Beach, Californie, United States. pp.1-5. 〈hal-01655085〉

Partager

Métriques

Consultations de la notice

135

Téléchargements de fichiers

18