Efficient Estimation of Word Representations in Vector Space: differenze tra le versioni
(Creata pagina con "Categoria:Pubblicazione") |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
{{template pubblicazione | |||
|data=2013 | |||
|autori=Tomas Mikolov, Kai Chen, G. Corrado, J. Dean | |||
|URL=https://www.semanticscholar.org/paper/f6b51c8753a871dc94ff32152c00c01e94f90f09 | |||
|topic=Word Embeddings | |||
|citazioni=29484 | |||
}} | |||
Questo articolo presenta due nuove architetture di modelli per il calcolo di rappresentazioni vettoriali continue di parole da set di dati molto grandi. La qualità di queste rappresentazioni è misurata in un compito di similarità delle parole e i risultati sono confrontati con le tecniche precedentemente più performanti basate su diversi tipi di reti neurali. Gli autori osservano grandi miglioramenti nell'accuratezza a un costo computazionale molto inferiore, ad esempio ci vuole meno di un giorno per apprendere vettori di parole di alta qualità da un set di dati di 1,6 miliardi di parole. Inoltre, dimostrano che questi vettori forniscono prestazioni all'avanguardia sul loro set di test per misurare le somiglianze sintattiche e semantiche delle parole. | |||
{{#seo: | |||
|title=Efficient Estimation of Word Representations in Vector Space | |||
|title_mode=append | |||
|keywords=rappresentazioni vettoriali, "parole", "set di dati", "reti neurali", "accuratezza", "similarità", "semantica", "sintassi", "elaborazione del linguaggio naturale", "apprendimento automatico" | |||
|description=Questa pubblicazione presenta due nuove architetture di modelli per il calcolo di rappresentazioni vettoriali di parole da set di dati di grandi dimensioni. Gli autori dimostrano un miglioramento significativo nell'accuratezza e una riduzione del costo computazionale, aprendo nuove prospettive per l'elaborazione del linguaggio naturale. | |||
}} |
Versione attuale delle 12:01, 6 set 2024
Efficient Estimation of Word Representations in Vector Space | |
---|---|
Data | 2013 |
Autori | Tomas Mikolov, Kai Chen, G. Corrado, J. Dean |
URL | https://www.semanticscholar.org/paper/f6b51c8753a871dc94ff32152c00c01e94f90f09 |
Topic | Word Embeddings |
Citazioni | 29484 |
Questo articolo presenta due nuove architetture di modelli per il calcolo di rappresentazioni vettoriali continue di parole da set di dati molto grandi. La qualità di queste rappresentazioni è misurata in un compito di similarità delle parole e i risultati sono confrontati con le tecniche precedentemente più performanti basate su diversi tipi di reti neurali. Gli autori osservano grandi miglioramenti nell'accuratezza a un costo computazionale molto inferiore, ad esempio ci vuole meno di un giorno per apprendere vettori di parole di alta qualità da un set di dati di 1,6 miliardi di parole. Inoltre, dimostrano che questi vettori forniscono prestazioni all'avanguardia sul loro set di test per misurare le somiglianze sintattiche e semantiche delle parole.