Rete Neurale Residua (ResNet): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
| Riga 1: | Riga 1: | ||
{{template architettura | |||
|NomeInglese=Residual Neural Network | |||
|Sigla=ResNet | |||
|AnnoDiCreazione=2015 | |||
Sigla | |Pubblicazione=Deep Residual Learning for Image Recognition | ||
|URLHomePage=https://arxiv.org/abs/1512.03385 | |||
|Topic=Classificazione, Immagini, Reti neurali | |||
}} | |||
Pubblicazione | |||
Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello. | Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello. | ||
| Riga 19: | Riga 15: | ||
[[Category:architettura]] | [[Category:architettura]] | ||
Versione delle 15:11, 27 mag 2024
| Rete Neurale Residua (ResNet) | |
|---|---|
| Nome Inglese | Residual Neural Network |
| Sigla | ResNet |
| Anno Di Creazione | 2015 |
| Pubblicazione | Deep Residual Learning for Image Recognition |
| URL | https://arxiv.org/abs/1512.03385 |
| Topic | Classificazione, Immagini, Reti neurali |
Architettura di rete neurale, originariamente proposta nel 2015 in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello.
Viene utilizzata per esempio nei transformer.