Deep Residual Learning for Image Recognition: differenze tra le versioni
(Creata pagina con "Titolo: Titolo::Deep Residual Learning for Image Recognition Anno di pubblicazione: AnnoDiPubblicazione::2015 Autori: Autori::Kaiming He; Autori: Xiangyu Zhang; Autori: Shaoqing Ren; Autori: Jian Sun URL: URL::https://arxiv.org/pdf/1512.03385.pdf Topic: Topic::Affronta il problema della degradazione della profondità nelle reti neurali profonde attraverso l'utilizzo di shortcut connections Category:pubblicazione __SHOWFACTBOX__") |
Nessun oggetto della modifica |
||
(Una versione intermedia di un altro utente non mostrate) | |||
Riga 1: | Riga 1: | ||
{{template pubblicazione | |||
|data=2015 | |||
|autori=Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun | |||
|URL=https://www.semanticscholar.org/paper/2c03df8b48bf3fa39054345bafabfeff15bfd11d | |||
|topic=Deep Learning, Reti Neurali | |||
|citazioni=169163 | |||
}} | |||
Questo articolo introduce il concetto di *Residual Learning* per l'addestramento di reti neurali molto profonde. L'idea principale è quella di aggiungere "shortcut connections" che saltano uno o più strati, permettendo al gradiente di propagarsi più facilmente durante la fase di addestramento. Questo approccio ha dimostrato di migliorare significativamente le prestazioni delle reti neurali, specialmente per quelle molto profonde, che altrimenti soffrirebbero del problema della *degradazione della profondità*. La *degradazione della profondità* si verifica quando l'accuratezza di una rete neurale inizia a diminuire con l'aumentare del numero di strati, nonostante la maggiore capacità di rappresentazione. Le reti residue, grazie alle *shortcut connections*, riescono a mitigare questo problema e a raggiungere prestazioni superiori. Questo articolo ha avuto un impatto significativo nel campo del Deep Learning, aprendo la strada a nuove architetture di reti neurali ancora più profonde e performanti. | |||
Versione attuale delle 10:41, 17 ago 2024
Deep Residual Learning for Image Recognition | |
---|---|
Data | 2015 |
Autori | Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun |
URL | https://www.semanticscholar.org/paper/2c03df8b48bf3fa39054345bafabfeff15bfd11d |
Topic | Deep Learning, Reti Neurali |
Citazioni | 169163 |
Questo articolo introduce il concetto di *Residual Learning* per l'addestramento di reti neurali molto profonde. L'idea principale è quella di aggiungere "shortcut connections" che saltano uno o più strati, permettendo al gradiente di propagarsi più facilmente durante la fase di addestramento. Questo approccio ha dimostrato di migliorare significativamente le prestazioni delle reti neurali, specialmente per quelle molto profonde, che altrimenti soffrirebbero del problema della *degradazione della profondità*. La *degradazione della profondità* si verifica quando l'accuratezza di una rete neurale inizia a diminuire con l'aumentare del numero di strati, nonostante la maggiore capacità di rappresentazione. Le reti residue, grazie alle *shortcut connections*, riescono a mitigare questo problema e a raggiungere prestazioni superiori. Questo articolo ha avuto un impatto significativo nel campo del Deep Learning, aprendo la strada a nuove architetture di reti neurali ancora più profonde e performanti.