Sie befinden Sich nicht im Netzwerk der Universität Paderborn. Der Zugriff auf elektronische Ressourcen ist gegebenenfalls nur via VPN oder Shibboleth (DFN-AAI) möglich. mehr Informationen...
Ergebnis 2 von 32894

Details

Autor(en) / Beteiligte
Titel
Logarithmic Floating-Point Multipliers for Efficient Neural Network Training
Ist Teil von
  • Design and Applications of Emerging Computer Systems, p.567-587
Ort / Verlag
Cham: Springer Nature Switzerland
Link zum Volltext
Quelle
Alma/SFX Local Collection
Beschreibungen/Notizen
  • Floating-point (FP) arithmetic computation is favored for training neural networks (NNs) due to its wide numerical range. The computation-intensive training process requires a tremendous amount of multiplication, which poses a challenge to deploying NN architectures on resource-constrained devices. This chapter presents hardware-efficient logarithmic FP multipliers (LFPMs) for NN training. By using piecewise approximations in different configurations over the applicable domains of the logarithm and anti-logarithm functions, we obtain LFPMs with various characteristics in accuracy and hardware. The benchmark NN applications are considered for evaluation.
Sprache
Englisch
Identifikatoren
ISBN: 3031424778, 9783031424779
DOI: 10.1007/978-3-031-42478-6_21
Titel-ID: cdi_springer_books_10_1007_978_3_031_42478_6_21

Weiterführende Literatur

Empfehlungen zum selben Thema automatisch vorgeschlagen von bX