Rete Neurale Residua (ResNet): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
| Riga 1: | Riga 1: | ||
Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture | Nome: [[Nome::Rete Neurale Residua]] | ||
Nome Inglese: [[NomeInglese::Residual Neural Network]] | |||
Sigla: [[Sigla::ResNet]] | |||
Anno Di Creazione: [[AnnoDiCreazione::2015]] | |||
Pubblicazione: [[Pubblicazione::Deep Residual Learning for Image Recognition]] | |||
Topic: [[Topic::Le reti neurali residue agevolano l'addestramento di reti neurali profonde, soprattutto in ambito della computer vision e del deep learning]] | |||
Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello. | |||
Viene utilizzata per esempio nei [[transformer]]. | Viene utilizzata per esempio nei [[transformer]]. | ||
| Riga 7: | Riga 20: | ||
[[Category:architettura]] | [[Category:architettura]] | ||
__SHOWFACTBOX__ | |||
Versione delle 14:21, 9 apr 2024
Nome: Rete Neurale Residua
Nome Inglese: Residual Neural Network
Sigla: ResNet
Anno Di Creazione: 2015
Pubblicazione: Deep Residual Learning for Image Recognition
Architettura di rete neurale, originariamente proposta nel 2015 in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello.
Viene utilizzata per esempio nei transformer.
Links
Deep Residual Learning for Image Recognition