Rete Neurale Residua (ResNet): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 1: Riga 1:
Nome: [[Nome::Rete Neurale Residua]]
{{template architettura
 
|NomeInglese=Residual Neural Network
Nome Inglese: [[NomeInglese::Residual Neural Network]]
|Sigla=ResNet
 
|AnnoDiCreazione=2015
Sigla: [[Sigla::ResNet]]
|Pubblicazione=Deep Residual Learning for Image Recognition
 
|URLHomePage=https://arxiv.org/abs/1512.03385
Anno Di Creazione: [[AnnoDiCreazione::2015]]
|Topic=Classificazione, Immagini, Reti neurali
 
}}
Pubblicazione: [[Pubblicazione::Deep Residual Learning for Image Recognition]]
 
 
 
Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello.  
Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello.  


Riga 19: Riga 15:


[[Category:architettura]]
[[Category:architettura]]
__SHOWFACTBOX__

Versione delle 15:11, 27 mag 2024

Rete Neurale Residua (ResNet)
Nome Inglese Residual Neural Network
Sigla ResNet
Anno Di Creazione 2015
Pubblicazione Deep Residual Learning for Image Recognition
URL https://arxiv.org/abs/1512.03385
Topic Classificazione, Immagini, Reti neurali

Architettura di rete neurale, originariamente proposta nel 2015 in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello.

Viene utilizzata per esempio nei transformer.

Links

Deep Residual Learning for Image Recognition