Sampling method (Stable Diffusion): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 27: Riga 27:
#* DPM++ 2M Turbo
#* DPM++ 2M Turbo
#* DPM++ 2M SDE Turbo
#* DPM++ 2M SDE Turbo
# Metodi SGM (probabilmente Smooth Gradient Methods o varianti):
# Metodi SGM (Smooth Gradient Methods o varianti):
#* Euler SGMUniform
#* Euler SGMUniform
#* Euler A SGMUniform
#* Euler A SGMUniform
Riga 46: Riga 46:
#* UniPC
#* UniPC


<blockquote>In certi nomi possiamo notare una "a" (Euler a, DPM++ 2S a, ecc.). Essa sta per "ancestrale" e identifica gli algoritmi di tipo stocastico (Monte Carlo).</blockquote>Nell'approcciare Stable Diffusion è bene saper individuare in base alle proprie esigenze quali sono i metodi di campionamento più adatti. Le due caratteristiche principali che contraddistinguono la performance di ciascun algoritmo sono la velocità e la qualità.
<blockquote>In certi nomi possiamo notare una "a" (Euler a, DPM++ 2S a, ecc.). Essa sta per "ancestrale" e identifica gli algoritmi di tipo stocastico (Monte Carlo).</blockquote>Nell'approcciare Stable Diffusion è bene saper individuare in base alle proprie esigenze quali sono i metodi di campionamento più adatti. Le due caratteristiche principali che contraddistinguono la performance di ciascun algoritmo sono la velocità e la qualità. Puoi trovare un confronto dei vari modelli che prende in considerazione anche la stabilità qui: [https://wiki.offworld.it/images/4/44/Confronto_50.webp].
[[File:Confronto.webp|miniatura|1328x1328px|fonte: [https://www.reddit.com/user/adesigne/ https://www.reddit.com/user/adesig]]]
 
Stable Diffusion Art ha inoltre effettuato delle misurazioni nell'estate del 2023 per eseguire un'analisi comparativa dei vari approcci[https://stable-diffusion-art.com/samplers/]:
[[File:Confronto velocità.webp|centro|miniatura|684x684px|Confronto per velocità di processi]]
[[File:Convergence confronto.webp|centro|miniatura|619x619px|Confronto per convergenza]]

Versione delle 16:31, 15 mar 2024

Attualmente, ci sono ben 38 opzioni di Sampling methods disponibili in AUTOMATIC1111 (a Giugno 2023 erano solo 19!).

Il campionamento è una componente fondamentale nel processo interno di un modello come Stable Diffusion e alterarne il metodo può influenzare diversi aspetti della generazione, come la nitidezza, la responsività, la velocità di generazione e la stabilità del processo di diffusione

Per svolgere un'overview concisa ma efficace, possiamo classificare i vari approcci nel seguente modo:

  1. Metodi di Base (DPM e DDPM):
    • DPM2
    • DDPM
    • DDPM Karras
  2. Metodi Avanzati DPM++ (variazioni con ulteriori miglioramenti):
    • DPM++ 2M
    • DPM++ SDE
    • DPM++ 2.5 a
    • DPM++ 2M Karras
  3. Metodi che utilizzano SDE:
    • DPM++ SDE Karras
    • DPM++ 2M SDE Karras
    • DPM++ 2M SDE Exponential
    • DPM++ 2M SDE Heun
    • DPM++ 2M SDE Heun Karras
    • DPM++ 2M SDE Heun Exponential
  4. Variazioni Exponential e Turbo (per accelerare il processo):
    • DPM++ 2M SDE Exponential
    • DPM++ 2M SDE Heun Exponential
    • DPM++ 2M Turbo
    • DPM++ 2M SDE Turbo
  5. Metodi SGM (Smooth Gradient Methods o varianti):
    • Euler SGMUniform
    • Euler A SGMUniform
    • DPM++ 2M SGMUniform
    • DPM++ 2M SDE SGMUniform
  6. Metodi Euler e Heun (basati su schemi numerici per la soluzione di equazioni differenziali):
    • Euler
    • Heun
    • Euler A Turbo
  7. Metodi LMS (probabilmente riferito a Least Mean Squares per l'ottimizzazione):
    • LMS
    • LMS Karras
  8. Metodi per il Restart e l'Adattabilità:
    • Restart
    • DPM adaptive
  9. Variazioni PLMS e UniPC (possibili ottimizzazioni o modalità di generazione specifiche):
    • PLMS
    • UniPC

In certi nomi possiamo notare una "a" (Euler a, DPM++ 2S a, ecc.). Essa sta per "ancestrale" e identifica gli algoritmi di tipo stocastico (Monte Carlo).

Nell'approcciare Stable Diffusion è bene saper individuare in base alle proprie esigenze quali sono i metodi di campionamento più adatti. Le due caratteristiche principali che contraddistinguono la performance di ciascun algoritmo sono la velocità e la qualità. Puoi trovare un confronto dei vari modelli che prende in considerazione anche la stabilità qui: [1].

Stable Diffusion Art ha inoltre effettuato delle misurazioni nell'estate del 2023 per eseguire un'analisi comparativa dei vari approcci[2]:

Errore nella creazione della miniatura: /bin/bash: line 1: /usr/bin/convert: No such file or directory Error code: 127
Confronto per velocità di processi
Errore nella creazione della miniatura: /bin/bash: line 1: /usr/bin/convert: No such file or directory Error code: 127
Confronto per convergenza