Language Models are Few-Shot Learners

Da Wiki AI.
Versione del 21 feb 2024 alle 17:30 di Alesaccoia (discussione | contributi) (Creata pagina con "Il paper, pubblicato il 22 luglio 2020 da OpenAI, discute delle capacità di apprendimento few-shot learning dei modelli di linguaggio, in particolare di GPT-3, modello autoregressivo da 175 miliardi di parametri. L'informazione più importante da questo punto di vista è il posizionamento del modello GPT-3 all'apice dell'evoluzione dei modelli di linguaggio per i vari downstream task. Rispetto al trend che operava un fine-tuning")
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)

Il paper, pubblicato il 22 luglio 2020 da OpenAI, discute delle capacità di apprendimento few-shot learning dei modelli di linguaggio, in particolare di GPT-3, modello autoregressivo da 175 miliardi di parametri.

L'informazione più importante da questo punto di vista è il posizionamento del modello GPT-3 all'apice dell'evoluzione dei modelli di linguaggio per i vari downstream task. Rispetto al trend che operava un fine-tuning