Rete Neurale Residua (ResNet): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 1: Riga 1:
Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture moldot profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello.  
Nome: [[Nome::Rete Neurale Residua]]
 
Nome Inglese: [[NomeInglese::Residual Neural Network]]
 
Sigla: [[Sigla::ResNet]]
 
Anno Di Creazione: [[AnnoDiCreazione::2015]]
 
Pubblicazione: [[Pubblicazione::Deep Residual Learning for Image Recognition]]
 
Topic: [[Topic::Le reti neurali residue agevolano l'addestramento di reti neurali profonde, soprattutto in ambito della computer vision e del deep learning]]
 
 
Architettura di rete neurale, originariamente proposta nel [https://arxiv.org/abs/1512.03385 2015] in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello.  


Viene utilizzata per esempio nei [[transformer]].  
Viene utilizzata per esempio nei [[transformer]].  
Riga 7: Riga 20:


[[Category:architettura]]
[[Category:architettura]]
__SHOWFACTBOX__

Versione delle 14:21, 9 apr 2024

Nome: Rete Neurale Residua

Nome Inglese: Residual Neural Network

Sigla: ResNet

Anno Di Creazione: 2015

Pubblicazione: Deep Residual Learning for Image Recognition

Topic: Le reti neurali residue agevolano l'addestramento di reti neurali profonde, soprattutto in ambito della computer vision e del deep learning


Architettura di rete neurale, originariamente proposta nel 2015 in cui i pesi nei layer imparano una funzione residuale invece che la trasformazione finale. Questo permette ai gradienti di fluire meglio nelle architetture molto profonde, risolvendo il problema dei gradienti che svaniscono o che esplodono e quindi aumentando l'accuratezza e la probabilità di convergenza del modello.

Viene utilizzata per esempio nei transformer.

Links

Deep Residual Learning for Image Recognition