Deep Contextualized Word Representations: differenze tra le versioni

Da Wiki AI.
(Creata pagina con "Categoria:Pubblicazione")
 
Nessun oggetto della modifica
 
Riga 1: Riga 1:
{{template pubblicazione
|data=2018
|autori=Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer
|URL=https://www.semanticscholar.org/paper/3febb2bed8865945e7fddc99efd791887bb7e14f
|topic=Word embedding
|citazioni=11008
}}
Questo articolo introduce un nuovo tipo di rappresentazione delle parole contestualizzata e profonda, denominata ELMo (Embeddings from Language Models), che modella sia le caratteristiche complesse dell'uso delle parole (ad esempio, sintassi e semantica) sia il modo in cui questi usi variano a seconda del contesto linguistico (ad esempio, per modellare la polisemia). I vettori di parole sono funzioni apprese dagli stati interni di un modello linguistico bidirezionale profondo (biLM), pre-addestrato su un ampio corpus di testo. 
ELMo può essere facilmente integrato in modelli esistenti e migliorare significativamente lo stato dell'arte in sei diversi compiti NLP, tra cui la risposta alle domande, l'implicazione testuale e l'analisi del sentiment.
[[Categoria:Pubblicazione]]
[[Categoria:Pubblicazione]]
{{#seo:
            |title=Deep Contextualized Word Representations
            |title_mode=append
            |keywords=rappresentazione delle parole, apprendimento profondo, elaborazione del linguaggio naturale, modelli linguistici, apprendimento automatico, semantica, sintassi, polisemia, vettori di parole, embedding
            |description=Questa pubblicazione introduce ELMo (Embeddings from Language Models), una nuova rappresentazione delle parole contestualizzata e profonda. ELMo modella gli usi complessi delle parole e le loro variazioni nel contesto linguistico. I vettori di parole di ELMo, derivati da un modello linguistico bidirezionale profondo, migliorano le prestazioni in diversi compiti di NLP.
           
            }}

Versione attuale delle 10:24, 6 set 2024

Deep Contextualized Word Representations
Data 2018
Autori Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer
URL https://www.semanticscholar.org/paper/3febb2bed8865945e7fddc99efd791887bb7e14f
Topic Word embedding
Citazioni 11008


Questo articolo introduce un nuovo tipo di rappresentazione delle parole contestualizzata e profonda, denominata ELMo (Embeddings from Language Models), che modella sia le caratteristiche complesse dell'uso delle parole (ad esempio, sintassi e semantica) sia il modo in cui questi usi variano a seconda del contesto linguistico (ad esempio, per modellare la polisemia). I vettori di parole sono funzioni apprese dagli stati interni di un modello linguistico bidirezionale profondo (biLM), pre-addestrato su un ampio corpus di testo.

ELMo può essere facilmente integrato in modelli esistenti e migliorare significativamente lo stato dell'arte in sei diversi compiti NLP, tra cui la risposta alle domande, l'implicazione testuale e l'analisi del sentiment.