Long Short-Term Memory: differenze tra le versioni
(Creata pagina con "Categoria:Pubblicazione") |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
{{template pubblicazione | |||
|data=1997 | |||
|autori=Sepp Hochreiter, J. Schmidhuber | |||
|URL=https://www.semanticscholar.org/paper/2e9d221c206e9503ceb452302d68d10e293f2a10 | |||
|topic=Reti Neurali Ricorrenti | |||
|citazioni=80233 | |||
}} | |||
L'apprendimento per memorizzare informazioni su intervalli di tempo estesi tramite backpropagation ricorrente richiede molto tempo, soprattutto a causa di un flusso di errore insufficiente e in decadimento. Questo articolo introduce un metodo nuovo, efficiente e basato sul gradiente chiamato memoria a breve e lungo termine (LSTM). Troncando il gradiente dove questo non fa male, LSTM può imparare a colmare ritardi minimi superiori a 1000 passi temporali discreti imponendo un flusso di errore costante attraverso carosello di errore costanti all'interno di unità speciali. Le unità gate moltiplicative imparano ad aprire e chiudere l'accesso al flusso di errore costante. LSTM è locale nello spazio e nel tempo; la sua complessità computazionale per passo temporale e peso è O(1). | |||
{{#seo: | |||
|title=Long Short-Term Memory | |||
|title_mode=append | |||
|keywords=rete neurale, apprendimento automatico, intelligenza artificiale, memoria a breve termine, memoria a lungo termine, backpropagation, gradiente, LSTM, intervalli di tempo, elaborazione del linguaggio naturale | |||
|description=Questo articolo introduce la memoria a breve e lungo termine (LSTM), un metodo efficiente per addestrare reti neurali ricorrenti. LSTM risolve il problema del decadimento del gradiente troncandolo selettivamente, consentendo di apprendere dipendenze a lungo termine. Questo ha aperto la strada a significativi progressi nell'apprendimento automatico. | |||
}} |
Versione attuale delle 04:56, 9 set 2024
Long Short-Term Memory | |
---|---|
Data | 1997 |
Autori | Sepp Hochreiter, J. Schmidhuber |
URL | https://www.semanticscholar.org/paper/2e9d221c206e9503ceb452302d68d10e293f2a10 |
Topic | Reti Neurali Ricorrenti |
Citazioni | 80233 |
L'apprendimento per memorizzare informazioni su intervalli di tempo estesi tramite backpropagation ricorrente richiede molto tempo, soprattutto a causa di un flusso di errore insufficiente e in decadimento. Questo articolo introduce un metodo nuovo, efficiente e basato sul gradiente chiamato memoria a breve e lungo termine (LSTM). Troncando il gradiente dove questo non fa male, LSTM può imparare a colmare ritardi minimi superiori a 1000 passi temporali discreti imponendo un flusso di errore costante attraverso carosello di errore costanti all'interno di unità speciali. Le unità gate moltiplicative imparano ad aprire e chiudere l'accesso al flusso di errore costante. LSTM è locale nello spazio e nel tempo; la sua complessità computazionale per passo temporale e peso è O(1).