Asymptotic description of stochastic neural networks. II. Characterization of the limit law

Olivier Faugeras 1 James Maclaurin 1
1 NEUROMATHCOMP - Mathematical and Computational Neuroscience
CRISAM - Inria Sophia Antipolis - Méditerranée , JAD - Laboratoire Jean Alexandre Dieudonné : UMR6621
Résumé : Nous prolongeons le développement, commencé en [8], de la description asymptotique de certains réseaux de neurones stochastiques. Nous utilisons le principe de grandes déviations (PGD) et la bonne fonction de taux H que nous y annoncions pour démontrer l'existence d'un unique minimimum, μe, de H , une mesure stationnaire sur l'ensemble TZ des trajectoires. Nous caractérisons cette mesure par ses deux maginales, à l'instant 0, et du temps 1 au temps T. La seconde marginale est une mesure gaussienne stationnaire. Avec un oeil sur les applications, nous montrons comment calculer de manière inductive sa moyenne et son opérateur de covariance. Nous montrons aussi comment utiliser le PGD pour établir des résultats de convergence en moyenne et presque sûrement.
Type de document :
Article dans une revue
Comptes rendus de l'Académie des sciences. Série I, Mathématique, Elsevier, 2014, 352, pp.847 - 852. 〈10.1016/j.crma.2014.08.017〉
Liste complète des métadonnées

Littérature citée [2 références]  Voir  Masquer  Télécharger

https://hal.inria.fr/hal-01074836
Contributeur : Olivier Faugeras <>
Soumis le : mercredi 15 octobre 2014 - 15:50:20
Dernière modification le : jeudi 11 janvier 2018 - 16:57:01
Document(s) archivé(s) le : vendredi 14 avril 2017 - 16:48:18

Fichier

paper2.pdf
Fichiers produits par l'(les) auteur(s)

Identifiants

Citation

Olivier Faugeras, James Maclaurin. Asymptotic description of stochastic neural networks. II. Characterization of the limit law. Comptes rendus de l'Académie des sciences. Série I, Mathématique, Elsevier, 2014, 352, pp.847 - 852. 〈10.1016/j.crma.2014.08.017〉. 〈hal-01074836〉

Partager

Métriques

Consultations de la notice

162

Téléchargements de fichiers

66