Long Short-Term Memory (LSTM): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 9: Riga 9:


Pubblicazione: [[Pubblicazione::A Focused Backpropagation Algorithm for Temporal Pattern Recognition]]
Pubblicazione: [[Pubblicazione::A Focused Backpropagation Algorithm for Temporal Pattern Recognition]]
Data Esempio: [[DataEsempio:2000]]





Versione delle 08:27, 11 apr 2024

Nome: Long Short-Term Memory

Nome Inglese: Long Short-Term Memory

Sigla: LSTM

Anno di creazione: 1997

Pubblicazione: A Focused Backpropagation Algorithm for Temporal Pattern Recognition

Data Esempio: DataEsempio:2000


Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.

Questa architettura è stata creata per superare il problema dei gradienti che svaniscono nelle RNN. Nella pratica, LSTM vengono sempre utilizzate al posto delle RNN.

Links

Mozer, Mike (1989). "A Focused Backpropagation Algorithm for Temporal Pattern Recognition". Complex Systems.