A Focused Backpropagation Algorithm for Temporal Pattern Recognition: differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
(6 versioni intermedie di 2 utenti non mostrate) | |||
Riga 1: | Riga 1: | ||
{{template pubblicazione | |||
|data=1989 | |||
|autori=Yves Chauvin, D. Rumelhart | |||
|URL=https://www.semanticscholar.org/paper/ff5d9085699cee609cb5ca5dba8e2cb4eb03c8c0 | |||
|topic=Backpropagation | |||
|citazioni=570 | |||
}} | |||
Descrive una nuova architettura per reti neurali e una versione migliorata dell'algoritmo di apprendimento back-propagation, progettata per gestire in modo più efficiente le sequenze temporali, come nel caso del riconoscimento vocale. | |||
L'elemento innovativo principale è l'introduzione di uno strato di unità nascoste che si autoconnettono e integrano il loro valore corrente con nuovi input a ogni passo temporale, costruendo così una rappresentazione statica della sequenza temporale. | |||
Versione attuale delle 10:31, 17 ago 2024
A Focused Backpropagation Algorithm for Temporal Pattern Recognition | |
---|---|
Data | 1989 |
Autori | Yves Chauvin, D. Rumelhart |
URL | https://www.semanticscholar.org/paper/ff5d9085699cee609cb5ca5dba8e2cb4eb03c8c0 |
Topic | Backpropagation |
Citazioni | 570 |
Descrive una nuova architettura per reti neurali e una versione migliorata dell'algoritmo di apprendimento back-propagation, progettata per gestire in modo più efficiente le sequenze temporali, come nel caso del riconoscimento vocale.
L'elemento innovativo principale è l'introduzione di uno strato di unità nascoste che si autoconnettono e integrano il loro valore corrente con nuovi input a ogni passo temporale, costruendo così una rappresentazione statica della sequenza temporale.