LLaMA: Open and Efficient Foundation Language Models: differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
 
Riga 1: Riga 1:
{{template pubblicazione
{{template pubblicazione
|data=2023
|data=2023
|autori=Hugo Touvron et al.
|autori=Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample
|URL=https://www.semanticscholar.org/paper/57e849d0de13ed5f91d086936296721d4ff75a75
|URL=https://www.semanticscholar.org/paper/57e849d0de13ed5f91d086936296721d4ff75a75
|topic=Linguaggio naturale
|topic=Linguaggio naturale
|citazioni=7339
|citazioni=7677
}}
}}


LLaMA è una famiglia di modelli linguistici di base con un numero di parametri che varia da 7 miliardi a 65 miliardi. I modelli sono stati addestrati su un enorme set di dati di testo pubblico, dimostrando che è possibile ottenere prestazioni all'avanguardia senza ricorrere a set di dati proprietari. In particolare, LLaMA-13B supera le prestazioni di GPT-3 (175B) nella maggior parte dei benchmark, mentre LLaMA-65B è competitivo con i migliori modelli come Chinchilla-70B e PaLM-540B.
LLaMA è una famiglia di modelli linguistici di base con un numero di parametri che varia da 7 miliardi a 65 miliardi. I modelli sono stati addestrati su un enorme set di dati di testo pubblico, dimostrando che è possibile ottenere prestazioni all'avanguardia senza ricorrere a set di dati proprietari. In particolare, LLaMA-13B supera le prestazioni di GPT-3 (175B) nella maggior parte dei benchmark, mentre LLaMA-65B è competitivo con i migliori modelli come Chinchilla-70B e PaLM-540B.
{{#seo:
            |title=LLaMA: Open and Efficient Foundation Language Models
            |title_mode=append
            |keywords=modelli linguistici, intelligenza artificiale, elaborazione del linguaggio naturale, apprendimento automatico, set di dati di testo, LLaMA, GPT-3, Chinchilla, PaLM
            |description=LLaMA è una famiglia di modelli linguistici di base con un numero di parametri da 7 a 65 miliardi. Addestrati su un vasto set di dati di testo pubblico, questi modelli dimostrano prestazioni all'avanguardia, con LLaMA-13B che supera GPT-3 in molti benchmark e LLaMA-65B competitivo con modelli come Chinchilla-70B e PaLM-540B.
           
            }}

Versione attuale delle 19:02, 6 set 2024

LLaMA: Open and Efficient Foundation Language Models
Data 2023
Autori Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample
URL https://www.semanticscholar.org/paper/57e849d0de13ed5f91d086936296721d4ff75a75
Topic Linguaggio naturale
Citazioni 7677


LLaMA è una famiglia di modelli linguistici di base con un numero di parametri che varia da 7 miliardi a 65 miliardi. I modelli sono stati addestrati su un enorme set di dati di testo pubblico, dimostrando che è possibile ottenere prestazioni all'avanguardia senza ricorrere a set di dati proprietari. In particolare, LLaMA-13B supera le prestazioni di GPT-3 (175B) nella maggior parte dei benchmark, mentre LLaMA-65B è competitivo con i migliori modelli come Chinchilla-70B e PaLM-540B.