Sie befinden Sich nicht im Netzwerk der Universität Paderborn. Der Zugriff auf elektronische Ressourcen ist gegebenenfalls nur via VPN oder Shibboleth (DFN-AAI) möglich. mehr Informationen...
Ergebnis 1 von 437
Transactions of the Association for Computational Linguistics, 2021-09, Vol.9, p.1061-1080
2021
Volltextzugriff (PDF)

Details

Autor(en) / Beteiligte
Titel
Compressing Large-Scale Transformer-Based Models: A Case Study on BERT
Ist Teil von
  • Transactions of the Association for Computational Linguistics, 2021-09, Vol.9, p.1061-1080
Ort / Verlag
One Rogers Street, Cambridge, MA 02142-1209, USA: MIT Press
Erscheinungsjahr
2021
Quelle
Elektronische Zeitschriftenbibliothek - Frei zugängliche E-Journals
Beschreibungen/Notizen
  • Pre-trained Transformer-based models have achieved state-of-the-art performance for various Natural Language Processing (NLP) tasks. However, these models often have billions of parameters, and thus are too resource- hungry and computation-intensive to suit low- capability devices or applications with strict latency requirements. One potential remedy for this is model compression, which has attracted considerable research attention. Here, we summarize the research in compressing Transformers, focusing on the especially popular BERT model. In particular, we survey the state of the art in compression for BERT, we clarify the current best practices for compressing large-scale Transformer models, and we provide insights into the workings of various methods. Our categorization and analysis also shed light on promising future research directions for achieving lightweight, accurate, and generic NLP models.
Sprache
Englisch
Identifikatoren
ISSN: 2307-387X
eISSN: 2307-387X
DOI: 10.1162/tacl_a_00413
Titel-ID: cdi_crossref_primary_10_1162_tacl_a_00413

Weiterführende Literatur

Empfehlungen zum selben Thema automatisch vorgeschlagen von bX