Rete Neurale Residua (ResNet): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 9: | Riga 9: | ||
Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello. | Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello. | ||
Ha 152 livelli | Ha 152 livelli. | ||
Viene utilizzata per esempio nei [[transformer]]. | Viene utilizzata per esempio nei [[transformer]]. |
Versione delle 22:40, 27 mag 2024
Rete Neurale Residua (ResNet) | |
---|---|
Nome Inglese | Residual Neural Network |
Sigla | ResNet |
Anno Di Creazione | 2015 |
Pubblicazione | Deep Residual Learning for Image Recognition |
URL | https://arxiv.org/abs/1512.03385 |
Topic | Classificazione, Immagini, Reti neurali |
Architettura di rete neurale, originariamente proposta nel 2015 in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello.
Ha 152 livelli.
Viene utilizzata per esempio nei transformer.