Modello linguistico di grandi dimensioni: differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 1: Riga 1:
Classe di Modelli di Linguaggio emersi in seguito alla pubblicazione dell'architettura [[transformer]] nel 2017, hanno operato una rivoluzione nel campo dell'NLP. In particolare:
Classe di Architetture di Modelli di Linguaggio emersi in seguito alla pubblicazione dell'architettura [[transformer]] nel 2017, hanno operato una rivoluzione nel campo dell'NLP. In particolare:


* NLP era soprattutto NLU (understanding), e poca generazione
* NLP era soprattutto NLU (understanding), e poca generazione
Riga 11: Riga 11:




[[Category:Modello]]
[[Category:Architettura]]

Versione delle 09:39, 18 mar 2024

Classe di Architetture di Modelli di Linguaggio emersi in seguito alla pubblicazione dell'architettura transformer nel 2017, hanno operato una rivoluzione nel campo dell'NLP. In particolare:

  • NLP era soprattutto NLU (understanding), e poca generazione
  • La multi-modalità era poco presente
  • La maggior parte dei modelli era basata su regole invece che su deep learning

Sono un evoluzione di RNN -> LSTM -> GRU, delle loro varianti bidirezionali e "stacked", delle architetture encoder-decoder basate su LSTM, e infine dell'uso dell'attention con LSTM.

Links

Overview of Large Language Models (YouTube - Manish Gupta)