A Focused Backpropagation Algorithm for Temporal Pattern Recognition: differenze tra le versioni

Da Wiki AI.
 
Nessun oggetto della modifica
 
(7 versioni intermedie di 3 utenti non mostrate)
Riga 1: Riga 1:
Titolo: [[Titolo::A Focused Backpropagation Algorithm for Temporal Pattern Recognition]]
{{template pubblicazione
|data=1989
|autori=Yves Chauvin, D. Rumelhart
|URL=https://www.semanticscholar.org/paper/ff5d9085699cee609cb5ca5dba8e2cb4eb03c8c0
|topic=Backpropagation
|citazioni=570
}}


Anno di pubblicazione: [[AnnoDiPubblicazione::1989]]
Descrive una nuova architettura per reti neurali e una versione migliorata dell'algoritmo di apprendimento back-propagation, progettata per gestire in modo più efficiente le sequenze temporali, come nel caso del riconoscimento vocale.


Autore: [[Autore::Michael C. Mozer]]
L'elemento innovativo principale è l'introduzione di uno strato di unità nascoste che si autoconnettono e integrano il loro valore corrente con nuovi input a ogni passo temporale, costruendo così una rappresentazione statica della sequenza temporale.
 
URL: [[URL::https://gwern.net/doc/ai/nn/rnn/1995-mozer.pdf]]
 
Topic: [[Topic::Backpropagation ottimizzata per il riconoscimento di pattern temporali]]
 
 
__SHOWFACTBOX__

Versione attuale delle 10:31, 17 ago 2024

A Focused Backpropagation Algorithm for Temporal Pattern Recognition
Data 1989
Autori Yves Chauvin, D. Rumelhart
URL https://www.semanticscholar.org/paper/ff5d9085699cee609cb5ca5dba8e2cb4eb03c8c0
Topic Backpropagation
Citazioni 570


Descrive una nuova architettura per reti neurali e una versione migliorata dell'algoritmo di apprendimento back-propagation, progettata per gestire in modo più efficiente le sequenze temporali, come nel caso del riconoscimento vocale.

L'elemento innovativo principale è l'introduzione di uno strato di unità nascoste che si autoconnettono e integrano il loro valore corrente con nuovi input a ogni passo temporale, costruendo così una rappresentazione statica della sequenza temporale.