None
| None | |
|---|---|
| Data | 2018 |
| Autori | Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer |
| URL | https://www.semanticscholar.org/paper/3febb2bed8865945e7fddc99efd791887bb7e14f |
| Topic | Word embedding |
| Citazioni | 11008 |
Questo articolo introduce un nuovo tipo di rappresentazione di parole contestualizzate che modella sia le caratteristiche complesse dell'uso delle parole (ad esempio, sintassi e semantica), sia il modo in cui questi usi variano a seconda dei contesti linguistici (ovvero, per modellare la polisemia).
I vettori di parole sono funzioni apprese degli stati interni di un modello linguistico bidirezionale profondo (biLM), pre-addestrato su un ampio corpus di testo. Questo approccio consente di ottenere rappresentazioni più ricche e informative rispetto ai tradizionali word embedding statici.