Quantizzazione: cronologia delle modifiche

Confronto tra versioni: selezionare le caselle corrispondenti alle versioni desiderate e premere Invio o il pulsante in basso.

Legenda: (corr) = differenze con la versione attuale, (prec) = differenze con la versione precedente, m = modifica minore

17 ago 2024

11 apr 2024

14 mar 2024

8 mar 2024

25 feb 2024

  • corrprec 06:3706:37, 25 feb 2024Alesaccoia discussione contributi 979 byte +979 Creata pagina con "Dal 2023, si è avvertita una richiesta crescente di poter eseguire localmente inferenza e fine-tuning dei modelli di linguaggio open source, con risorse computazionali minori. La quantizzazione riduce il numero di bit utilizzati per rappresentare i pesi di un modello, riducendo così la sua dimensione e la sua occupazione di Video RAM, e un aumento della sua velocità di inferenza. Il risultato è anche un aumento della perplexity del modello, ovvero della..."