Optimizer (Reti Neurali): differenze tra le versioni
(Creata pagina con "Un'Optimizer è una funzione che aggiorna il valore dei parametri del modello in base al valore calcolato dalla Funzione Obiettivo (loss) nell'iterazione corrente. Ha vari iperparametri, tra cui normalmente troviamo la learning rate. === Link === https://pytorch.org/docs/stable/optim.html#torch.optim.Optimizer [https://arxiv.org/abs/1412.6980 Adam: A Method for Stochastic Optimization]") |
Nessun oggetto della modifica |
||
Riga 5: | Riga 5: | ||
[https://arxiv.org/abs/1412.6980 Adam: A Method for Stochastic Optimization] | [https://arxiv.org/abs/1412.6980 Adam: A Method for Stochastic Optimization] | ||
[Category:concetti] |
Versione delle 22:46, 9 mar 2024
Un'Optimizer è una funzione che aggiorna il valore dei parametri del modello in base al valore calcolato dalla Funzione Obiettivo (loss) nell'iterazione corrente. Ha vari iperparametri, tra cui normalmente troviamo la learning rate.
Link
https://pytorch.org/docs/stable/optim.html#torch.optim.Optimizer
Adam: A Method for Stochastic Optimization
[Category:concetti]