Deep Residual Learning for Image Recognition: differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
 
Riga 1: Riga 1:
Titolo: [[Titolo::Deep Residual Learning for Image Recognition]]
{{template pubblicazione
|data=2015
|autori=Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun
|URL=https://www.semanticscholar.org/paper/2c03df8b48bf3fa39054345bafabfeff15bfd11d
|topic=Deep Learning, Reti Neurali
|citazioni=169163
}}


Anno di pubblicazione: [[AnnoDiPubblicazione::2015]]
Questo articolo introduce il concetto di *Residual Learning* per l'addestramento di reti neurali molto profonde. L'idea principale è quella di aggiungere "shortcut connections" che saltano uno o più strati, permettendo al gradiente di propagarsi più facilmente durante la fase di addestramento. Questo approccio ha dimostrato di migliorare significativamente le prestazioni delle reti neurali, specialmente per quelle molto profonde, che altrimenti soffrirebbero del problema della *degradazione della profondità*. La *degradazione della profondità* si verifica quando l'accuratezza di una rete neurale inizia a diminuire con l'aumentare del numero di strati, nonostante la maggiore capacità di rappresentazione. Le reti residue, grazie alle *shortcut connections*, riescono a mitigare questo problema e a raggiungere prestazioni superiori. Questo articolo ha avuto un impatto significativo nel campo del Deep Learning, aprendo la strada a nuove architetture di reti neurali ancora più profonde e performanti.
 
Autori: [[Autori::Kaiming He]]; [[Autori:: Xiangyu Zhang]]; [[Autori:: Shaoqing Ren]]; [[Autori:: Jian Sun]]
 
URL: [[URL::https://arxiv.org/pdf/1512.03385.pdf]]
 
Topic: [[Topic::Affronta il problema della degradazione della profondità nelle reti neurali profonde attraverso l'utilizzo di shortcut connections]]
 
 
[[Category:pubblicazione]]
 
__SHOWFACTBOX__

Versione attuale delle 10:41, 17 ago 2024

Deep Residual Learning for Image Recognition
Data 2015
Autori Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun
URL https://www.semanticscholar.org/paper/2c03df8b48bf3fa39054345bafabfeff15bfd11d
Topic Deep Learning, Reti Neurali
Citazioni 169163


Questo articolo introduce il concetto di *Residual Learning* per l'addestramento di reti neurali molto profonde. L'idea principale è quella di aggiungere "shortcut connections" che saltano uno o più strati, permettendo al gradiente di propagarsi più facilmente durante la fase di addestramento. Questo approccio ha dimostrato di migliorare significativamente le prestazioni delle reti neurali, specialmente per quelle molto profonde, che altrimenti soffrirebbero del problema della *degradazione della profondità*. La *degradazione della profondità* si verifica quando l'accuratezza di una rete neurale inizia a diminuire con l'aumentare del numero di strati, nonostante la maggiore capacità di rappresentazione. Le reti residue, grazie alle *shortcut connections*, riescono a mitigare questo problema e a raggiungere prestazioni superiori. Questo articolo ha avuto un impatto significativo nel campo del Deep Learning, aprendo la strada a nuove architetture di reti neurali ancora più profonde e performanti.