Speedup Critical Stage of Machine Learning with Batch Scheduling in GPU - Inria - Institut national de recherche en sciences et technologies du numérique Accéder directement au contenu
Communication Dans Un Congrès Année : 2014

Speedup Critical Stage of Machine Learning with Batch Scheduling in GPU

Yuan Gao
  • Fonction : Auteur
Rui Wang
  • Fonction : Auteur
  • PersonId : 994396
Ning An
  • Fonction : Auteur
Yanjiang Wei
  • Fonction : Auteur
Depei Qian
  • Fonction : Auteur

Résumé

As a superior data analysis method, Machine Learning suffers the bottleneck from limited computing capability for many years. With the advent of numerous parallel computing hardwares, modern GPU is becoming a promising carrier for the tasks of Machine Learning. In this paper, we propose an efficient GPU execution framework to speedup the forward propagation process of convolution neural network. By extending the convolution unrolling method to fit this batch mode, we get a significant increase of throughput but very little overhead.
Fichier principal
Vignette du fichier
978-3-662-44917-2_43_Chapter.pdf (1.15 Mo) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)

Dates et versions

hal-01403124 , version 1 (25-11-2016)

Licence

Paternité

Identifiants

Citer

Yuan Gao, Rui Wang, Ning An, Yanjiang Wei, Depei Qian. Speedup Critical Stage of Machine Learning with Batch Scheduling in GPU. 11th IFIP International Conference on Network and Parallel Computing (NPC), Sep 2014, Ilan, Taiwan. pp.522-525, ⟨10.1007/978-3-662-44917-2_43⟩. ⟨hal-01403124⟩
345 Consultations
78 Téléchargements

Altmetric

Partager

Gmail Facebook X LinkedIn More