Rete Neurale Residua (ResNet): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 8: | Riga 8: | ||
}} | }} | ||
Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello. | Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello. | ||
Ha 152 livelli e vince | |||
Viene utilizzata per esempio nei [[transformer]]. | Viene utilizzata per esempio nei [[transformer]]. | ||
Riga 13: | Riga 15: | ||
=== Links === | === Links === | ||
[https://arxiv.org/abs/1512.03385 Deep Residual Learning for Image Recognition] | [https://arxiv.org/abs/1512.03385 Deep Residual Learning for Image Recognition] | ||
https://www.andreaprovino.it/resnet | |||
[[Category:architettura]] | [[Category:architettura]] |
Versione delle 22:40, 27 mag 2024
Rete Neurale Residua (ResNet) | |
---|---|
Nome Inglese | Residual Neural Network |
Sigla | ResNet |
Anno Di Creazione | 2015 |
Pubblicazione | Deep Residual Learning for Image Recognition |
URL | https://arxiv.org/abs/1512.03385 |
Topic | Classificazione, Immagini, Reti neurali |
Architettura di rete neurale, originariamente proposta nel 2015 in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello.
Ha 152 livelli e vince
Viene utilizzata per esempio nei transformer.