Modello linguistico di grandi dimensioni: differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 13: | Riga 13: | ||
=== Links === | === Links === | ||
[https://www.youtube.com/watch?v=dFwF0cwFd-E Overview of Large Language Models (YouTube - Manish Gupta)] | [https://www.youtube.com/watch?v=dFwF0cwFd-E Overview of Large Language Models (YouTube - Manish Gupta)] | ||
{{#seo: | |||
|title=Large Language Model (LLM) | |||
|title_mode=append | |||
|keywords=modelli di linguaggio, LLM, NLP, Natural Language Processing, Transformer, deep learning, RNN, LSTM, GRU, encoder-decoder, attention | |||
|description=I Large Language Model (LLM) sono una classe di modelli di linguaggio basati su deep learning che hanno rivoluzionato il campo dell'NLP. A differenza dei modelli precedenti, gli LLM eccellono sia nella comprensione che nella generazione del linguaggio, supportano la multi-modalità e si basano su architetture come i Transformer. | |||
}} |
Versione delle 13:30, 17 ago 2024
Modello linguistico di grandi dimensioni | |
---|---|
Nome Inglese | Large Language Model |
Sigla | LLM |
Classe di Modelli di Linguaggio emersi soprattutto in seguito alla pubblicazione dell'architettura transformer nel 2017, hanno operato una rivoluzione nel campo dell'NLP. In particolare:
- NLP era soprattutto NLU (understanding), e poca generazione
- La multi-modalità era poco presente
- La maggior parte dei modelli era basata su regole invece che su deep learning
Sono un evoluzione di RNN -> LSTM -> GRU, delle loro varianti bidirezionali e "stacked", delle architetture encoder-decoder basate su LSTM, e infine dell'uso dell'attention con LSTM.
Links
Overview of Large Language Models (YouTube - Manish Gupta)