None: differenze tra le versioni
(Creata pagina con "{{template pubblicazione |data=2018 |autori=Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer |URL=https://www.semanticscholar.org/paper/3febb2bed8865945e7fddc99efd791887bb7e14f |topic=Word embedding |citazioni=11008 }} Questo articolo introduce un nuovo tipo di rappresentazione di parole contestualizzate che modella sia le caratteristiche complesse dell'uso delle parole (ad esempio, sintassi e semantica)...") |
Nessun oggetto della modifica |
||
Riga 7: | Riga 7: | ||
}} | }} | ||
Questo articolo | Questo articolo presenta un nuovo tipo di rappresentazione di parole contestualizzate profonde che modella sia (1) le caratteristiche complesse dell'uso delle parole (ad esempio, sintassi e semantica), sia (2) come questi usi variano a seconda dei contesti linguistici (ovvero, per modellare la polisemia). I vettori di parole sono funzioni apprese degli stati interni di un modello linguistico bidirezionale profondo (biLM), che è pre-addestrato su un ampio corpus di testo. Gli autori dimostrano che queste rappresentazioni possono essere facilmente aggiunte ai modelli esistenti e migliorare significativamente lo stato dell'arte in sei sfidanti problemi di PNL, tra cui il question answering, l'implicazione testuale e l'analisi del sentiment. Presentano inoltre un'analisi che mostra che esporre gli interni profondi della rete pre-addestrata è fondamentale, consentendo ai modelli a valle di combinare diversi tipi di segnali di semi-supervisione. | ||
I vettori di parole sono funzioni apprese degli stati interni di un modello linguistico bidirezionale profondo (biLM), pre-addestrato su un ampio corpus di testo. | |||
{{#seo: | {{#seo: | ||
|title=Deep Contextualized Word Representations | |title=Deep Contextualized Word Representations | ||
|title_mode=append | |title_mode=append | ||
|keywords= | |keywords=rappresentazione delle parole, apprendimento profondo, elaborazione del linguaggio naturale, semantica, sintassi, polisemia, modelli linguistici, word embedding | ||
|description=Questa pubblicazione presenta un nuovo tipo di rappresentazione di parole contestualizzate, | |description=Questa pubblicazione presenta un nuovo tipo di rappresentazione di parole contestualizzate, che modella sia le caratteristiche complesse dell'uso delle parole che le loro variazioni in base al contesto. Gli autori dimostrano che queste rappresentazioni migliorano significativamente lo stato dell'arte in diversi problemi di PNL, come il question answering e l'analisi del sentiment. | ||
}} | }} |
Versione attuale delle 10:20, 6 set 2024
None | |
---|---|
Data | 2018 |
Autori | Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer |
URL | https://www.semanticscholar.org/paper/3febb2bed8865945e7fddc99efd791887bb7e14f |
Topic | Word embedding |
Citazioni | 11008 |
Questo articolo presenta un nuovo tipo di rappresentazione di parole contestualizzate profonde che modella sia (1) le caratteristiche complesse dell'uso delle parole (ad esempio, sintassi e semantica), sia (2) come questi usi variano a seconda dei contesti linguistici (ovvero, per modellare la polisemia). I vettori di parole sono funzioni apprese degli stati interni di un modello linguistico bidirezionale profondo (biLM), che è pre-addestrato su un ampio corpus di testo. Gli autori dimostrano che queste rappresentazioni possono essere facilmente aggiunte ai modelli esistenti e migliorare significativamente lo stato dell'arte in sei sfidanti problemi di PNL, tra cui il question answering, l'implicazione testuale e l'analisi del sentiment. Presentano inoltre un'analisi che mostra che esporre gli interni profondi della rete pre-addestrata è fondamentale, consentendo ai modelli a valle di combinare diversi tipi di segnali di semi-supervisione.