Modello linguistico di grandi dimensioni: differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
{{Template concetto | |||
|NomeInglese=Large Language Model | |||
Sigla | |Sigla=LLM | ||
}} | |||
Classe di Modelli di Linguaggio emersi soprattutto in seguito alla pubblicazione dell'architettura [[transformer]] nel 2017, hanno operato una rivoluzione nel campo dell'NLP. In particolare: | Classe di Modelli di Linguaggio emersi soprattutto in seguito alla pubblicazione dell'architettura [[transformer]] nel 2017, hanno operato una rivoluzione nel campo dell'NLP. In particolare: | ||
Versione delle 17:07, 27 mag 2024
Modello linguistico di grandi dimensioni | |
---|---|
Nome Inglese | Large Language Model |
Sigla | LLM |
Classe di Modelli di Linguaggio emersi soprattutto in seguito alla pubblicazione dell'architettura transformer nel 2017, hanno operato una rivoluzione nel campo dell'NLP. In particolare:
- NLP era soprattutto NLU (understanding), e poca generazione
- La multi-modalità era poco presente
- La maggior parte dei modelli era basata su regole invece che su deep learning
Sono un evoluzione di RNN -> LSTM -> GRU, delle loro varianti bidirezionali e "stacked", delle architetture encoder-decoder basate su LSTM, e infine dell'uso dell'attention con LSTM.