LLaMA: Open and Efficient Foundation Language Models: differenze tra le versioni
(Creata pagina con "Titolo: Titolo::LLaMA: Open and Efficient Foundation Language Models Anno di pubblicazione: AnnoDiPubblicazione::2023 Autori: Autori::Hugo Touvron et al. URL: URL::https://arxiv.org/pdf/2302.13971.pdf Category:pubblicazione __SHOWFACTBOX__") |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
{{template pubblicazione | |||
|data=2023 | |||
|autori=Hugo Touvron et al. | |||
|URL=https://www.semanticscholar.org/paper/57e849d0de13ed5f91d086936296721d4ff75a75 | |||
|topic=Linguaggio naturale | |||
|citazioni=7339 | |||
}} | |||
LLaMA è una famiglia di modelli linguistici di base con un numero di parametri che varia da 7 miliardi a 65 miliardi. I modelli sono stati addestrati su un enorme set di dati di testo pubblico, dimostrando che è possibile ottenere prestazioni all'avanguardia senza ricorrere a set di dati proprietari. In particolare, LLaMA-13B supera le prestazioni di GPT-3 (175B) nella maggior parte dei benchmark, mentre LLaMA-65B è competitivo con i migliori modelli come Chinchilla-70B e PaLM-540B. | |||
Versione delle 10:51, 17 ago 2024
LLaMA: Open and Efficient Foundation Language Models | |
---|---|
Data | 2023 |
Autori | Hugo Touvron et al. |
URL | https://www.semanticscholar.org/paper/57e849d0de13ed5f91d086936296721d4ff75a75 |
Topic | Linguaggio naturale |
Citazioni | 7339 |
LLaMA è una famiglia di modelli linguistici di base con un numero di parametri che varia da 7 miliardi a 65 miliardi. I modelli sono stati addestrati su un enorme set di dati di testo pubblico, dimostrando che è possibile ottenere prestazioni all'avanguardia senza ricorrere a set di dati proprietari. In particolare, LLaMA-13B supera le prestazioni di GPT-3 (175B) nella maggior parte dei benchmark, mentre LLaMA-65B è competitivo con i migliori modelli come Chinchilla-70B e PaLM-540B.