Rete Neurale Residua (ResNet): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
{{template architettura | |||
|NomeInglese=Residual Neural Network | |||
|Sigla=ResNet | |||
|AnnoDiCreazione=2015 | |||
Sigla | |Pubblicazione=Deep Residual Learning for Image Recognition | ||
|URLHomePage=https://arxiv.org/abs/1512.03385 | |||
|Topic=Classificazione, Immagini, Reti neurali | |||
}} | |||
Pubblicazione | |||
Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello. | Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello. | ||
Riga 19: | Riga 15: | ||
[[Category:architettura]] | [[Category:architettura]] | ||
Versione delle 15:11, 27 mag 2024
Rete Neurale Residua (ResNet) | |
---|---|
Nome Inglese | Residual Neural Network |
Sigla | ResNet |
Anno Di Creazione | 2015 |
Pubblicazione | Deep Residual Learning for Image Recognition |
URL | https://arxiv.org/abs/1512.03385 |
Topic | Classificazione, Immagini, Reti neurali |
Architettura di rete neurale, originariamente proposta nel 2015 in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello.
Viene utilizzata per esempio nei transformer.