None: differenze tra le versioni

Da Wiki AI.
(Creata pagina con "{{template pubblicazione |data=2018 |autori=Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer |URL=https://www.semanticscholar.org/paper/3febb2bed8865945e7fddc99efd791887bb7e14f |topic=Word embedding |citazioni=11008 }} Questo articolo introduce un nuovo tipo di rappresentazione di parole contestualizzate che modella sia le caratteristiche complesse dell'uso delle parole (ad esempio, sintassi e semantica)...")
 
Nessun oggetto della modifica
 
Riga 7: Riga 7:
}}
}}


Questo articolo introduce un nuovo tipo di rappresentazione di parole contestualizzate che modella sia le caratteristiche complesse dell'uso delle parole (ad esempio, sintassi e semantica), sia il modo in cui questi usi variano a seconda dei contesti linguistici (ovvero, per modellare la polisemia).
Questo articolo presenta un nuovo tipo di rappresentazione di parole contestualizzate profonde che modella sia (1) le caratteristiche complesse dell'uso delle parole (ad esempio, sintassi e semantica), sia (2) come questi usi variano a seconda dei contesti linguistici (ovvero, per modellare la polisemia). I vettori di parole sono funzioni apprese degli stati interni di un modello linguistico bidirezionale profondo (biLM), che è pre-addestrato su un ampio corpus di testo. Gli autori dimostrano che queste rappresentazioni possono essere facilmente aggiunte ai modelli esistenti e migliorare significativamente lo stato dell'arte in sei sfidanti problemi di PNL, tra cui il question answering, l'implicazione testuale e l'analisi del sentiment. Presentano inoltre un'analisi che mostra che esporre gli interni profondi della rete pre-addestrata è fondamentale, consentendo ai modelli a valle di combinare diversi tipi di segnali di semi-supervisione.
 
I vettori di parole sono funzioni apprese degli stati interni di un modello linguistico bidirezionale profondo (biLM), pre-addestrato su un ampio corpus di testo. Questo approccio consente di ottenere rappresentazioni più ricche e informative rispetto ai tradizionali word embedding statici.
 
[[Categoria:Pubblicazione]]


{{#seo:
{{#seo:
             |title=Deep Contextualized Word Representations
             |title=Deep Contextualized Word Representations
             |title_mode=append
             |title_mode=append
             |keywords=rappresentazioni di parole, word embedding, modelli linguistici, elaborazione del linguaggio naturale, apprendimento profondo, reti neurali, semantica, sintassi, polisemia
             |keywords=rappresentazione delle parole, apprendimento profondo, elaborazione del linguaggio naturale, semantica, sintassi, polisemia, modelli linguistici, word embedding
             |description=Questa pubblicazione presenta un nuovo tipo di rappresentazione di parole contestualizzate, modellando sia le caratteristiche complesse dell'uso delle parole che le loro variazioni in base al contesto linguistico. Questo approccio, basato su un modello linguistico bidirezionale profondo, genera rappresentazioni più ricche rispetto ai tradizionali word embedding statici.
             |description=Questa pubblicazione presenta un nuovo tipo di rappresentazione di parole contestualizzate, che modella sia le caratteristiche complesse dell'uso delle parole che le loro variazioni in base al contesto. Gli autori dimostrano che queste rappresentazioni migliorano significativamente lo stato dell'arte in diversi problemi di PNL, come il question answering e l'analisi del sentiment.
              
              
             }}
             }}

Versione attuale delle 10:20, 6 set 2024

None
Data 2018
Autori Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer
URL https://www.semanticscholar.org/paper/3febb2bed8865945e7fddc99efd791887bb7e14f
Topic Word embedding
Citazioni 11008


Questo articolo presenta un nuovo tipo di rappresentazione di parole contestualizzate profonde che modella sia (1) le caratteristiche complesse dell'uso delle parole (ad esempio, sintassi e semantica), sia (2) come questi usi variano a seconda dei contesti linguistici (ovvero, per modellare la polisemia). I vettori di parole sono funzioni apprese degli stati interni di un modello linguistico bidirezionale profondo (biLM), che è pre-addestrato su un ampio corpus di testo. Gli autori dimostrano che queste rappresentazioni possono essere facilmente aggiunte ai modelli esistenti e migliorare significativamente lo stato dell'arte in sei sfidanti problemi di PNL, tra cui il question answering, l'implicazione testuale e l'analisi del sentiment. Presentano inoltre un'analisi che mostra che esporre gli interni profondi della rete pre-addestrata è fondamentale, consentendo ai modelli a valle di combinare diversi tipi di segnali di semi-supervisione.