Long Short-Term Memory (LSTM): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 16: Riga 16:


[[Category:architettura]]
[[Category:architettura]]
{{#seo:
            |title=Long Short-Term Memory
            |title_mode=append
            |keywords="reti neurali, RNN, sequenze temporali, memoria a lungo termine, apprendimento automatico, intelligenza artificiale, deep learning, elaborazione del linguaggio naturale, analisi delle serie temporali"
            |description="Le LSTM (Long Short-Term Memory) sono un tipo speciale di rete neurale ricorrente progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze come musica, linguaggio naturale e serie temporali finanziarie. Scopri come le LSTM superano i limiti delle RNN tradizionali."
           
            }}

Versione delle 13:34, 17 ago 2024

Long Short-Term Memory (LSTM)
Nome Inglese Long Short-Term Memory
Sigla LSTM
Anno Di Creazione 1997
Pubblicazione A Focused Backpropagation Algorithm for Temporal Pattern Recognition
URL
Topic sequenze

Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.

Questa architettura è stata creata per superare il problema dei gradienti che svaniscono nelle RNN. Nella pratica, LSTM vengono sempre utilizzate al posto delle RNN.

Links

Mozer, Mike (1989). "A Focused Backpropagation Algorithm for Temporal Pattern Recognition". Complex Systems.