LLaMA: Open and Efficient Foundation Language Models: differenze tra le versioni
(Creata pagina con "Titolo: Titolo::LLaMA: Open and Efficient Foundation Language Models Anno di pubblicazione: AnnoDiPubblicazione::2023 Autori: Autori::Hugo Touvron et al. URL: URL::https://arxiv.org/pdf/2302.13971.pdf Category:pubblicazione __SHOWFACTBOX__") |
Nessun oggetto della modifica |
||
(Una versione intermedia di uno stesso utente non è mostrata) | |||
Riga 1: | Riga 1: | ||
{{template pubblicazione | |||
|data=2023 | |||
|autori=Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample | |||
|URL=https://www.semanticscholar.org/paper/57e849d0de13ed5f91d086936296721d4ff75a75 | |||
|topic=Linguaggio naturale | |||
|citazioni=7677 | |||
}} | |||
LLaMA è una famiglia di modelli linguistici di base con un numero di parametri che varia da 7 miliardi a 65 miliardi. I modelli sono stati addestrati su un enorme set di dati di testo pubblico, dimostrando che è possibile ottenere prestazioni all'avanguardia senza ricorrere a set di dati proprietari. In particolare, LLaMA-13B supera le prestazioni di GPT-3 (175B) nella maggior parte dei benchmark, mentre LLaMA-65B è competitivo con i migliori modelli come Chinchilla-70B e PaLM-540B. | |||
{{#seo: | |||
|title=LLaMA: Open and Efficient Foundation Language Models | |||
|title_mode=append | |||
|keywords=modelli linguistici, intelligenza artificiale, elaborazione del linguaggio naturale, apprendimento automatico, set di dati di testo, LLaMA, GPT-3, Chinchilla, PaLM | |||
|description=LLaMA è una famiglia di modelli linguistici di base con un numero di parametri da 7 a 65 miliardi. Addestrati su un vasto set di dati di testo pubblico, questi modelli dimostrano prestazioni all'avanguardia, con LLaMA-13B che supera GPT-3 in molti benchmark e LLaMA-65B competitivo con modelli come Chinchilla-70B e PaLM-540B. | |||
}} |
Versione attuale delle 19:02, 6 set 2024
LLaMA: Open and Efficient Foundation Language Models | |
---|---|
Data | 2023 |
Autori | Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample |
URL | https://www.semanticscholar.org/paper/57e849d0de13ed5f91d086936296721d4ff75a75 |
Topic | Linguaggio naturale |
Citazioni | 7677 |
LLaMA è una famiglia di modelli linguistici di base con un numero di parametri che varia da 7 miliardi a 65 miliardi. I modelli sono stati addestrati su un enorme set di dati di testo pubblico, dimostrando che è possibile ottenere prestazioni all'avanguardia senza ricorrere a set di dati proprietari. In particolare, LLaMA-13B supera le prestazioni di GPT-3 (175B) nella maggior parte dei benchmark, mentre LLaMA-65B è competitivo con i migliori modelli come Chinchilla-70B e PaLM-540B.