Optimizer (Reti Neurali): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 11: Riga 11:
[https://arxiv.org/abs/1412.6980 Adam: A Method for Stochastic Optimization]
[https://arxiv.org/abs/1412.6980 Adam: A Method for Stochastic Optimization]


[[Category:concetti]]
[[Category:concetto]]

Versione delle 08:38, 15 mar 2024

Un'Optimizer è una funzione che aggiorna il valore dei parametri del modello in base al valore calcolato dalla Funzione Obiettivo (loss) nell'iterazione corrente. Ha vari iperparametri, tra cui normalmente troviamo la learning rate.

Esempi di ottimizzatori:

  • ADAM
  • Stochastic Gradient Descent (SGD)

Link

https://pytorch.org/docs/stable/optim.html#torch.optim.Optimizer

Adam: A Method for Stochastic Optimization