LLaMA: Open and Efficient Foundation Language Models: differenze tra le versioni

Da Wiki AI.
 
Nessun oggetto della modifica
Riga 1: Riga 1:
Titolo: [[Titolo::LLaMA: Open and Efficient Foundation Language Models]]
{{template pubblicazione
|data=2023
|autori=Hugo Touvron et al.
|URL=https://www.semanticscholar.org/paper/57e849d0de13ed5f91d086936296721d4ff75a75
|topic=Linguaggio naturale
|citazioni=7339
}}


Anno di pubblicazione: [[AnnoDiPubblicazione::2023]]
LLaMA è una famiglia di modelli linguistici di base con un numero di parametri che varia da 7 miliardi a 65 miliardi. I modelli sono stati addestrati su un enorme set di dati di testo pubblico, dimostrando che è possibile ottenere prestazioni all'avanguardia senza ricorrere a set di dati proprietari. In particolare, LLaMA-13B supera le prestazioni di GPT-3 (175B) nella maggior parte dei benchmark, mentre LLaMA-65B è competitivo con i migliori modelli come Chinchilla-70B e PaLM-540B.
 
Autori: [[Autori::Hugo Touvron et al.]]
 
URL: [[URL::https://arxiv.org/pdf/2302.13971.pdf]]
 
[[Category:pubblicazione]]
 
__SHOWFACTBOX__

Versione delle 10:51, 17 ago 2024

LLaMA: Open and Efficient Foundation Language Models
Data 2023
Autori Hugo Touvron et al.
URL https://www.semanticscholar.org/paper/57e849d0de13ed5f91d086936296721d4ff75a75
Topic Linguaggio naturale
Citazioni 7339


LLaMA è una famiglia di modelli linguistici di base con un numero di parametri che varia da 7 miliardi a 65 miliardi. I modelli sono stati addestrati su un enorme set di dati di testo pubblico, dimostrando che è possibile ottenere prestazioni all'avanguardia senza ricorrere a set di dati proprietari. In particolare, LLaMA-13B supera le prestazioni di GPT-3 (175B) nella maggior parte dei benchmark, mentre LLaMA-65B è competitivo con i migliori modelli come Chinchilla-70B e PaLM-540B.