A Neural Probabilistic Language Model: differenze tra le versioni

Da Wiki AI.
(Creata pagina con "Categoria:Pubblicazione")
 
Nessun oggetto della modifica
 
(Una versione intermedia di un altro utente non mostrate)
Riga 1: Riga 1:
[[Categoria:Pubblicazione]]
{{template pubblicazione
|data=2003
|autori=Yoshua Bengio, Réjean Ducharme, Pascal Vincent, Christian Janvin
|URL=https://www.semanticscholar.org/paper/6c2b28f9354f667cd5bd07afc0471d8334430da7
|topic=Modelli di Linguaggio, Reti Neurali
|citazioni=7032
}}
 
Questo articolo presenta un modello di linguaggio probabilistico neurale che apprende una rappresentazione distribuita delle parole insieme alla funzione di probabilità per le sequenze di parole. L'approccio proposto affronta la maledizione della dimensionalità imparando la somiglianza tra le parole, consentendo al modello di assegnare un'alta probabilità a sequenze di parole mai viste prima se composte da parole simili a quelle presenti in frasi già viste.
 
{{#seo:
            |title=A Neural Probabilistic Language Model
            |title_mode=append
            |keywords=modello di linguaggio, reti neurali, elaborazione del linguaggio naturale, apprendimento automatico, intelligenza artificiale, rappresentazione delle parole, probabilità, sequenze di parole, analisi semantica, modello statistico
            |description=Questa pubblicazione presenta un modello di linguaggio probabilistico neurale che apprende come rappresentare le parole e calcolare la probabilità di sequenze di parole. Il modello supera il problema della dimensionalità imparando la similarità tra le parole, consentendogli di assegnare un'alta probabilità a sequenze di parole nuove se queste sono composte da parole simili a quelle già viste.
           
            }}

Versione attuale delle 10:27, 6 set 2024

A Neural Probabilistic Language Model
Data 2003
Autori Yoshua Bengio, Réjean Ducharme, Pascal Vincent, Christian Janvin
URL https://www.semanticscholar.org/paper/6c2b28f9354f667cd5bd07afc0471d8334430da7
Topic Modelli di Linguaggio, Reti Neurali
Citazioni 7032


Questo articolo presenta un modello di linguaggio probabilistico neurale che apprende una rappresentazione distribuita delle parole insieme alla funzione di probabilità per le sequenze di parole. L'approccio proposto affronta la maledizione della dimensionalità imparando la somiglianza tra le parole, consentendo al modello di assegnare un'alta probabilità a sequenze di parole mai viste prima se composte da parole simili a quelle presenti in frasi già viste.