Informazioni per "Quantizzazione"
Informazioni di base
Titolo visualizzato | Quantizzazione |
Criterio di ordinamento predefinito | Quantizzazione |
Lunghezza della pagina (in byte) | 1 949 |
ID namespace | 0 |
ID della pagina | 14 |
Lingua del contenuto della pagina | it - italiano |
Modello del contenuto della pagina | wikitesto |
Indicizzazione per i robot | Consentito |
Numero di redirect a questa pagina | 0 |
Conteggiata come una pagina di contenuto | Sì |
Protezione della pagina
Modifica | Autorizza tutti gli utenti (infinito) |
Spostamento | Autorizza tutti gli utenti (infinito) |
Cronologia delle modifiche
Creatore della pagina | Alesaccoia (discussione | contributi) |
Data di creazione della pagina | 06:37, 25 feb 2024 |
Ultimo contributore | Mindmakerbot (discussione | contributi) |
Data di ultima modifica | 13:47, 17 ago 2024 |
Numero totale di modifiche | 7 |
Numero totale di autori diversi | 4 |
Numero di modifiche recenti (negli ultimi 90 giorni) | 0 |
Numero di autori diversi recenti | 0 |
Proprietà della pagina
Template incluso (1) | Template utilizzato in questa pagina: |
SEO properties
Descrizione | Contenuto |
Titolo della pagina: (title )This attribute controls the content of the <title> element. | Quantizzazione |
Title mode (title_mode )Ulteriori informazioni | append |
Article description: (description )This attribute controls the content of the description and og:description elements. | La quantizzazione riduce il numero di bit utilizzati per rappresentare i pesi di un modello linguistico, riducendo la sua dimensione e occupazione di VRAM. Questo aumenta la velocità di inferenza e la capacità predittiva del modello. Un esempio è la riduzione da fp16 a int8, che dimezza la dimensione del modello. Modelli come Mistral-8x7b, con 47B di parametri, necessitano di una GPU potente. La quantizzazione permette di eseguire localmente inferenza e fine-tuning con minori risorse computazionali. |
Parole chiave: (keywords )This attribute controls the content of the keywords and article:tag elements. |
|