Modello linguistico di grandi dimensioni

Da Wiki AI.
Versione del 18 mar 2024 alle 09:38 di Alesaccoia (discussione | contributi) (Creata pagina con "Classe di Modelli di Linguaggio emersi in seguito alla pubblicazione dell'architettura transformer nel 2017, hanno operato una rivoluzione nel campo dell'NLP. In particolare: * NLP era soprattutto NLU (understanding), e poca generazione * La multi-modalità era poco presente * La maggior parte dei modelli era basata su regole invece che su deep learning Sono un evoluzione di RNN -> LSTM -> GRU, delle loro varianti bidirezionali e "stacked", delle architetture encod...")
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)

Classe di Modelli di Linguaggio emersi in seguito alla pubblicazione dell'architettura transformer nel 2017, hanno operato una rivoluzione nel campo dell'NLP. In particolare:

  • NLP era soprattutto NLU (understanding), e poca generazione
  • La multi-modalità era poco presente
  • La maggior parte dei modelli era basata su regole invece che su deep learning

Sono un evoluzione di RNN -> LSTM -> GRU, delle loro varianti bidirezionali e "stacked", delle architetture encoder-decoder basate su LSTM, e infine dell'uso dell'attention con LSTM.

Links

Overview of Large Language Models (YouTube - Manish Gupta)