Long Short-Term Memory (LSTM): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 3: | Riga 3: | ||
|Sigla=LSTM | |Sigla=LSTM | ||
|AnnoDiCreazione=1997 | |AnnoDiCreazione=1997 | ||
|Pubblicazione= | |Pubblicazione=Long Short-Term Memory | ||
|Topic=sequenze | |Topic=sequenze | ||
}} | }} | ||
Riga 10: | Riga 10: | ||
Questa architettura è stata creata per superare il problema dei [[Gradienti di ottimizzazione|gradienti che svaniscono]] nelle [[Recurrent Neural Network (RNN)|RNN]]. Nella pratica, LSTM vengono '''sempre''' utilizzate al posto delle '''RNN'''. | Questa architettura è stata creata per superare il problema dei [[Gradienti di ottimizzazione|gradienti che svaniscono]] nelle [[Recurrent Neural Network (RNN)|RNN]]. Nella pratica, LSTM vengono '''sempre''' utilizzate al posto delle '''RNN'''. | ||
Versione attuale delle 04:55, 9 set 2024
Long Short-Term Memory (LSTM) | |
---|---|
Nome Inglese | Long Short-Term Memory |
Sigla | LSTM |
Anno Di Creazione | 1997 |
Pubblicazione | Long Short-Term Memory |
URL | |
Topic | sequenze |
Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.
Questa architettura è stata creata per superare il problema dei gradienti che svaniscono nelle RNN. Nella pratica, LSTM vengono sempre utilizzate al posto delle RNN.