Alpaca: differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
 
(14 versioni intermedie di 3 utenti non mostrate)
Riga 1: Riga 1:
Nome: [[Nome::Alpaca]]
{{Template modello
 
|NomeInglese=Alpaca
Anno di creazione: [[AnnoDiCreazione::2023]]
|Sigla=Alpaca
 
|AnnoDiCreazione=2023
Versione corrente: [[VersioneCorrente::Alpaca 7B]]
|URL=https://www.alpacaml.com/
 
|Pubblicazione=Alpaca: A Strong, Replicable Instruction-Following Model
Anno di creazione versione corrente: [[AnnoDiCreazioneVersioneCorrente::2023]]
|URLPubblicazione=https://crfm.stanford.edu/2023/03/13/alpaca.html
 
}}
URLHomePage: [[URLHomePage::https://www.alpacaml.com/]]
 
Pubblicazione: [[Pubblicazione::
 
Basato su: [[BasatoSu::LLaMA (Large Language Model Architecture) di Meta
 
Topic: [[Topic::Generazione di testo]]
 
 
 
Questo modello di Stanford si distingue per essere stato perfezionato a partire dal modello [[LLaMA]] 7B di Meta, attraverso l'addestramento su 52.000 [[Instruction-following Demonstrations]]. In una valutazione preliminare, Alpaca ha mostrato comportamenti qualitativamente simili a quelli di text-davinci-003 di OpenAI, nonostante le sue dimensioni sorprendentemente ridotte e la facilità nonché l'economicità di riproduzione (meno di 600 dollari). Alpaca, è arricchito con dati di istruzioni generate in stile self-instruct usando text-davinci-003, si presenta come un modello leggero, facilmente riproducibile e a costi contenuti, ideale per la ricerca accademica.
Questo modello di Stanford si distingue per essere stato perfezionato a partire dal modello [[LLaMA]] 7B di Meta, attraverso l'addestramento su 52.000 [[Instruction-following Demonstrations]]. In una valutazione preliminare, Alpaca ha mostrato comportamenti qualitativamente simili a quelli di text-davinci-003 di OpenAI, nonostante le sue dimensioni sorprendentemente ridotte e la facilità nonché l'economicità di riproduzione (meno di 600 dollari). Alpaca, è arricchito con dati di istruzioni generate in stile self-instruct usando text-davinci-003, si presenta come un modello leggero, facilmente riproducibile e a costi contenuti, ideale per la ricerca accademica.


Riga 30: Riga 20:
[[Category:Modelli di Linguaggio]]
[[Category:Modelli di Linguaggio]]


__SHOWFACTBOX__
{{#seo:
            |title=Alpaca
            |title_mode=append
            |keywords=intelligenza artificiale, apprendimento automatico, modello linguistico, LLaMA, Instruction-following, Stanford, text-davinci-003, Huggingface, ricerca accademica, modello leggero
            |description=Alpaca è un modello di linguaggio sviluppato da Stanford a partire da LLaMA 7B di Meta, addestrato su 52.000 Instruction-following Demonstrations. Questo modello leggero e facilmente riproducibile offre prestazioni paragonabili a text-davinci-003 di OpenAI, aprendo nuove prospettive per la ricerca accademica.
           
            }}

Versione attuale delle 16:26, 17 ago 2024

Alpaca
Nome Inglese Alpaca
Sigla Alpaca
Anno Di Creazione 2023
Versione Corrente
URL https://www.alpacaml.com/
Pubblicazione Alpaca: A Strong, Replicable Instruction-Following Model
URL Pubblicazione https://crfm.stanford.edu/2023/03/13/alpaca.html

Questo modello di Stanford si distingue per essere stato perfezionato a partire dal modello LLaMA 7B di Meta, attraverso l'addestramento su 52.000 Instruction-following Demonstrations. In una valutazione preliminare, Alpaca ha mostrato comportamenti qualitativamente simili a quelli di text-davinci-003 di OpenAI, nonostante le sue dimensioni sorprendentemente ridotte e la facilità nonché l'economicità di riproduzione (meno di 600 dollari). Alpaca, è arricchito con dati di istruzioni generate in stile self-instruct usando text-davinci-003, si presenta come un modello leggero, facilmente riproducibile e a costi contenuti, ideale per la ricerca accademica.

Il processo di fine-tuning ha impiegato 3 ore su 8 A100 da 80GB, con un costo inferiore a 100 dollari sui principali provider di cloud.

Il team ha adottato misure di mitigazione dei rischi, come filtri di contenuto e watermarking dei risultati del modello, per promuovere l'uso responsabile di Alpaca. Essi enfatizzano che Alpaca è destinato esclusivamente alla ricerca accademica e che ogni uso commerciale è proibito, riflettendo le restrizioni delle licenze di LLaMA e le condizioni d'uso di text-davinci-003.

Links

[https://crfm.stanford.edu/2023/03/13/alpaca.html] [Modello su Huggingface]