Embeddings: differenze tra le versioni

Da Wiki AI.
(Creata pagina con "<blockquote>'''''Nets are for fish: Once you get the fish, you can forget the net.''''' '''''Words are for meaning: Once you get the meaning, you can forget the words''''' (Zhuangzi), Chapter 26 (Dan Jurafsky and James H. Martin - Speech and Language Processing An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition (2020))</blockquote>")
 
Nessun oggetto della modifica
Riga 3: Riga 3:
'''''Words are for meaning: Once you get the meaning, you can forget the words'''''
'''''Words are for meaning: Once you get the meaning, you can forget the words'''''


(Zhuangzi), Chapter 26
(Zhuangzi, Chapter 26)[1]</blockquote>''L’ipotesi distribuzionale'' dice che parole che appaiono in contesti simili hanno significati simili: su quest'ipotesi si basa il campo della '''semantica distribuzionale'''. Gli '''embeddings''' sono la realizzazione di ques'ipotesi: sono delle rappresentazioni delle parole che vengono calcolate partendo dalla distribuzione delle parole nel testo. Queste rappresentazioni vengono utilizzate in pratica in tutte le applicazioni di NLP ('''NLU''')che abbiano a che fare con il significato del testo. Sono anche un esempio di [[representazion learning]] .


(Dan Jurafsky and James H. Martin - Speech and Language Processing An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition (2020))</blockquote>
== Bibliografia ==
[1] Dan Jurafsky and James H. Martin - '''Speech and Language Processing An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition''' - 3rd Edition (2020)

Versione delle 17:57, 16 ago 2024

Nets are for fish: Once you get the fish, you can forget the net.

Words are for meaning: Once you get the meaning, you can forget the words

(Zhuangzi, Chapter 26)[1]

L’ipotesi distribuzionale dice che parole che appaiono in contesti simili hanno significati simili: su quest'ipotesi si basa il campo della semantica distribuzionale. Gli embeddings sono la realizzazione di ques'ipotesi: sono delle rappresentazioni delle parole che vengono calcolate partendo dalla distribuzione delle parole nel testo. Queste rappresentazioni vengono utilizzate in pratica in tutte le applicazioni di NLP (NLU)che abbiano a che fare con il significato del testo. Sono anche un esempio di representazion learning .

Bibliografia

[1] Dan Jurafsky and James H. Martin - Speech and Language Processing An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition - 3rd Edition (2020)