Long Short-Term Memory (LSTM): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 1: Riga 1:
 
{{template architettura
Nome: [[Nome::Long Short-Term Memory]]
|NomeInglese=Long Short-Term Memory
 
|Sigla=LSTM
Nome Inglese: [[NomeInglese::Long Short-Term Memory]]
|AnnoDiCreazione=1997
 
|Pubblicazione=A Focused Backpropagation Algorithm for Temporal Pattern Recognition
Sigla: [[Sigla::LSTM]]
|Topic=sequenze
 
}}
Anno di creazione: [[AnnoDiCreazione::1997]]
 
Pubblicazione: [[Pubblicazione::A Focused Backpropagation Algorithm for Temporal Pattern Recognition]]
 
 
Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.
Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.


Riga 21: Riga 16:


[[Category:architettura]]
[[Category:architettura]]
__SHOWFACTBOX__

Versione delle 10:19, 20 apr 2024

Long Short-Term Memory (LSTM)
Nome Inglese Long Short-Term Memory
Sigla LSTM
Anno Di Creazione 1997
Pubblicazione A Focused Backpropagation Algorithm for Temporal Pattern Recognition
URL
Topic sequenze

Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.

Questa architettura è stata creata per superare il problema dei gradienti che svaniscono nelle RNN. Nella pratica, LSTM vengono sempre utilizzate al posto delle RNN.

Links

Mozer, Mike (1989). "A Focused Backpropagation Algorithm for Temporal Pattern Recognition". Complex Systems.