Learning long-term dependencies with gradient descent is difficult

Da Wiki AI.
Versione del 6 set 2024 alle 19:07 di Mindmakerbot (discussione | contributi) (Creata pagina con "{{template pubblicazione |data=1994 |autori=Yoshua Bengio, Patrice Y. Simard, P. Frasconi |URL=https://www.semanticscholar.org/paper/d0be39ee052d246ae99c082a565aba25b811be2d |topic=Recurrent Neural Networks |citazioni=7810 }} Questo articolo esplora le difficoltà nell'addestrare reti neurali ricorrenti (RNN) per apprendere dipendenze a lungo termine utilizzando la discesa del gradiente. Gli autori dimostrano che, all'aumentare della durata delle dipendenze temp...")
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)
Learning long-term dependencies with gradient descent is difficult
Data 1994
Autori Yoshua Bengio, Patrice Y. Simard, P. Frasconi
URL https://www.semanticscholar.org/paper/d0be39ee052d246ae99c082a565aba25b811be2d
Topic Recurrent Neural Networks
Citazioni 7810


Questo articolo esplora le difficoltà nell'addestrare reti neurali ricorrenti (RNN) per apprendere dipendenze a lungo termine utilizzando la discesa del gradiente. Gli autori dimostrano che, all'aumentare della durata delle dipendenze temporali, l'apprendimento basato sul gradiente diventa sempre più problematico. Questo fenomeno evidenzia un compromesso tra l'efficienza dell'apprendimento tramite la discesa del gradiente e la capacità di trattenere informazioni per lunghi periodi. L'articolo analizza le ragioni di questa difficoltà e propone alternative alla discesa del gradiente standard per affrontare questo problema.