LLaMA: Open and Efficient Foundation Language Models

Da Wiki AI.
LLaMA: Open and Efficient Foundation Language Models
Data 2023
Autori Hugo Touvron et al.
URL https://www.semanticscholar.org/paper/57e849d0de13ed5f91d086936296721d4ff75a75
Topic Linguaggio naturale
Citazioni 7339


LLaMA è una famiglia di modelli linguistici di base con un numero di parametri che varia da 7 miliardi a 65 miliardi. I modelli sono stati addestrati su un enorme set di dati di testo pubblico, dimostrando che è possibile ottenere prestazioni all'avanguardia senza ricorrere a set di dati proprietari. In particolare, LLaMA-13B supera le prestazioni di GPT-3 (175B) nella maggior parte dei benchmark, mentre LLaMA-65B è competitivo con i migliori modelli come Chinchilla-70B e PaLM-540B.