Long Short-Term Memory (LSTM): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
 
Riga 3: Riga 3:
|Sigla=LSTM
|Sigla=LSTM
|AnnoDiCreazione=1997
|AnnoDiCreazione=1997
|Pubblicazione=A Focused Backpropagation Algorithm for Temporal Pattern Recognition
|Pubblicazione=Long Short-Term Memory
|Topic=sequenze
|Topic=sequenze
}}
}}
Riga 10: Riga 10:
Questa architettura è stata creata per superare il problema dei [[Gradienti di ottimizzazione|gradienti che svaniscono]] nelle [[Recurrent Neural Network (RNN)|RNN]]. Nella pratica, LSTM vengono '''sempre''' utilizzate al posto delle '''RNN'''.
Questa architettura è stata creata per superare il problema dei [[Gradienti di ottimizzazione|gradienti che svaniscono]] nelle [[Recurrent Neural Network (RNN)|RNN]]. Nella pratica, LSTM vengono '''sempre''' utilizzate al posto delle '''RNN'''.


=== Links ===


Mozer, Mike (1989). "A Focused Backpropagation Algorithm for Temporal Pattern Recognition". Complex Systems.





Versione attuale delle 04:55, 9 set 2024

Long Short-Term Memory (LSTM)
Nome Inglese Long Short-Term Memory
Sigla LSTM
Anno Di Creazione 1997
Pubblicazione Long Short-Term Memory
URL
Topic sequenze

Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.

Questa architettura è stata creata per superare il problema dei gradienti che svaniscono nelle RNN. Nella pratica, LSTM vengono sempre utilizzate al posto delle RNN.