Long Short-Term Memory (LSTM): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 1: Riga 1:
Nome: [[Nome::Memoria Lunga-Breve Termine]]
Nome Inglese: [[NomeInglese::Long Short-Term Memory]]
Sigla: [[Sigla::LSTM]]
Anno di creazione: [[AnnoDiCreazione::1989]]
Pubblicazione:
Topic:
Nome: Il nome ufficiale dell'architettura.
NomeInglese: Nome del'architettura in inglese
Sigla: Un'abbreviazione o acronimo associato all'architettura.
AnnoDiCreazione: L'anno in cui l'architettura è stata proposta o introdotta per la prima volta.
URLHomePage: http://esempioarchitettura.com Un collegamento all'homepage dell'architettura.
Pubblicazione: Pubblicazione/i
Topic: Uno o piu topic
Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.
Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.



Versione delle 08:57, 9 apr 2024

Nome: Memoria Lunga-Breve Termine

Nome Inglese: Long Short-Term Memory

Sigla: LSTM

Anno di creazione: 1989

Pubblicazione:

Topic:


Nome: Il nome ufficiale dell'architettura. NomeInglese: Nome del'architettura in inglese Sigla: Un'abbreviazione o acronimo associato all'architettura. AnnoDiCreazione: L'anno in cui l'architettura è stata proposta o introdotta per la prima volta. URLHomePage: http://esempioarchitettura.com Un collegamento all'homepage dell'architettura. Pubblicazione: Pubblicazione/i Topic: Uno o piu topic


Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.

Questa architettura è stata creata per superare il problema dei gradienti che svaniscono nelle RNN. Nella pratica, LSTM vengono sempre utilizzate al posto delle RNN.

Links

Mozer, Mike (1989). "A Focused Backpropagation Algorithm for Temporal Pattern Recognition". Complex Systems.