Long Short-Term Memory (LSTM): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 20: | Riga 20: | ||
|title=Long Short-Term Memory | |title=Long Short-Term Memory | ||
|title_mode=append | |title_mode=append | ||
|keywords= | |keywords=reti neurali, RNN, sequenze temporali, memoria a lungo termine, apprendimento automatico, intelligenza artificiale, deep learning, elaborazione del linguaggio naturale, analisi delle serie temporali | ||
|description= | |description=Le LSTM (Long Short-Term Memory) sono un tipo speciale di rete neurale ricorrente progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze come musica, linguaggio naturale e serie temporali finanziarie. Scopri come le LSTM superano i limiti delle RNN tradizionali. | ||
}} | }} |
Versione delle 13:47, 17 ago 2024
Long Short-Term Memory (LSTM) | |
---|---|
Nome Inglese | Long Short-Term Memory |
Sigla | LSTM |
Anno Di Creazione | 1997 |
Pubblicazione | A Focused Backpropagation Algorithm for Temporal Pattern Recognition |
URL | |
Topic | sequenze |
Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.
Questa architettura è stata creata per superare il problema dei gradienti che svaniscono nelle RNN. Nella pratica, LSTM vengono sempre utilizzate al posto delle RNN.
Links
Mozer, Mike (1989). "A Focused Backpropagation Algorithm for Temporal Pattern Recognition". Complex Systems.