Sie befinden Sich nicht im Netzwerk der Universität Paderborn. Der Zugriff auf elektronische Ressourcen ist gegebenenfalls nur via VPN oder Shibboleth (DFN-AAI) möglich. mehr Informationen...
Ergebnis 6 von 339
ACM computing surveys, 2020-07, Vol.52 (4), p.1-43
2020
Volltextzugriff (PDF)

Details

Autor(en) / Beteiligte
Titel
Demystifying Parallel and Distributed Deep Learning: An In-depth Concurrency Analysis
Ist Teil von
  • ACM computing surveys, 2020-07, Vol.52 (4), p.1-43
Ort / Verlag
Baltimore: Association for Computing Machinery
Erscheinungsjahr
2020
Quelle
ACM Digital Library
Beschreibungen/Notizen
  • Deep Neural Networks (DNNs) are becoming an important tool in modern computing applications. Accelerating their training is a major challenge and techniques range from distributed algorithms to low-level circuit design. In this survey, we describe the problem from a theoretical perspective, followed by approaches for its parallelization. We present trends in DNN architectures and the resulting implications on parallelization strategies. We then review and model the different types of concurrency in DNNs: from the single operator, through parallelism in network inference and training, to distributed deep learning. We discuss asynchronous stochastic optimization, distributed system architectures, communication schemes, and neural architecture search. Based on those approaches, we extrapolate potential directions for parallelism in deep learning.
Sprache
Englisch
Identifikatoren
ISSN: 0360-0300
eISSN: 1557-7341
DOI: 10.1145/3320060
Titel-ID: cdi_proquest_journals_2299755611

Weiterführende Literatur

Empfehlungen zum selben Thema automatisch vorgeschlagen von bX