Long Short-Term Memory: differenze tra le versioni

Da Wiki AI.
(Creata pagina con "Categoria:Pubblicazione")
 
Nessun oggetto della modifica
 
Riga 1: Riga 1:
[[Categoria:Pubblicazione]]
{{template pubblicazione
|data=1997
|autori=Sepp Hochreiter, J. Schmidhuber
|URL=https://www.semanticscholar.org/paper/2e9d221c206e9503ceb452302d68d10e293f2a10
|topic=Reti Neurali Ricorrenti
|citazioni=80233
}}
 
L'apprendimento per memorizzare informazioni su intervalli di tempo estesi tramite backpropagation ricorrente richiede molto tempo, soprattutto a causa di un flusso di errore insufficiente e in decadimento. Questo articolo introduce un metodo nuovo, efficiente e basato sul gradiente chiamato memoria a breve e lungo termine (LSTM). Troncando il gradiente dove questo non fa male, LSTM può imparare a colmare ritardi minimi superiori a 1000 passi temporali discreti imponendo un flusso di errore costante attraverso carosello di errore costanti all'interno di unità speciali. Le unità gate moltiplicative imparano ad aprire e chiudere l'accesso al flusso di errore costante. LSTM è locale nello spazio e nel tempo; la sua complessità computazionale per passo temporale e peso è O(1).
 
{{#seo:
            |title=Long Short-Term Memory
            |title_mode=append
            |keywords=rete neurale, apprendimento automatico, intelligenza artificiale, memoria a breve termine, memoria a lungo termine, backpropagation, gradiente, LSTM, intervalli di tempo, elaborazione del linguaggio naturale
            |description=Questo articolo introduce la memoria a breve e lungo termine (LSTM), un metodo efficiente per addestrare reti neurali ricorrenti. LSTM risolve il problema del decadimento del gradiente troncandolo selettivamente, consentendo di apprendere dipendenze a lungo termine. Questo ha aperto la strada a significativi progressi nell'apprendimento automatico.
            }}

Versione attuale delle 04:56, 9 set 2024

Long Short-Term Memory
Data 1997
Autori Sepp Hochreiter, J. Schmidhuber
URL https://www.semanticscholar.org/paper/2e9d221c206e9503ceb452302d68d10e293f2a10
Topic Reti Neurali Ricorrenti
Citazioni 80233


L'apprendimento per memorizzare informazioni su intervalli di tempo estesi tramite backpropagation ricorrente richiede molto tempo, soprattutto a causa di un flusso di errore insufficiente e in decadimento. Questo articolo introduce un metodo nuovo, efficiente e basato sul gradiente chiamato memoria a breve e lungo termine (LSTM). Troncando il gradiente dove questo non fa male, LSTM può imparare a colmare ritardi minimi superiori a 1000 passi temporali discreti imponendo un flusso di errore costante attraverso carosello di errore costanti all'interno di unità speciali. Le unità gate moltiplicative imparano ad aprire e chiudere l'accesso al flusso di errore costante. LSTM è locale nello spazio e nel tempo; la sua complessità computazionale per passo temporale e peso è O(1).