Long Short-Term Memory (LSTM): differenze tra le versioni
m (Alesaccoia ha spostato la pagina LSTM a Long Short-Term Memory (LSTM)) |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi. | Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi. | ||
Questa architettura è stata creata per superare il problema dei [[Gradienti di ottimizzazione|gradienti che svaniscono]] nelle [[Recurrent Neural Network (RNN)|RNN]]. Nella pratica, LSTM vengono '''sempre''' utilizzate al posto delle '''RNN'''. | |||
=== Links === | |||
Mozer, Mike (1989). "A Focused Backpropagation Algorithm for Temporal Pattern Recognition". Complex Systems. | |||
[[Category:architettura]] | [[Category:architettura]] |
Versione delle 19:51, 18 mar 2024
Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.
Questa architettura è stata creata per superare il problema dei gradienti che svaniscono nelle RNN. Nella pratica, LSTM vengono sempre utilizzate al posto delle RNN.
Links
Mozer, Mike (1989). "A Focused Backpropagation Algorithm for Temporal Pattern Recognition". Complex Systems.