Generating Sequences With Recurrent Neural Networks: differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
{{template pubblicazione | |||
|data=2014 | |||
|autori=Alex Graves | |||
|URL=https://www.semanticscholar.org/paper/6471fd1cbc081fb3b7b5b14d6ab9eaaba02b5c17 | |||
|topic=Generazione di testo con RNN | |||
|citazioni=3857 | |||
URL | }} | ||
Questo articolo dimostra come le reti neurali ricorrenti Long Short-Term Memory possono essere utilizzate per generare sequenze complesse con struttura a lungo raggio, semplicemente prevedendo un punto dati alla volta. L'approccio è dimostrato per il testo (dove i dati sono discreti) e la scrittura a mano online (dove i dati sono a valori reali). Viene quindi esteso alla sintesi della scrittura a mano consentendo alla rete di condizionare le sue previsioni su una sequenza di testo. Il sistema risultante è in grado di generare una scrittura corsiva altamente realistica in un'ampia varietà di stili. | |||
Versione attuale delle 10:49, 17 ago 2024
Generating Sequences With Recurrent Neural Networks | |
---|---|
Data | 2014 |
Autori | Alex Graves |
URL | https://www.semanticscholar.org/paper/6471fd1cbc081fb3b7b5b14d6ab9eaaba02b5c17 |
Topic | Generazione di testo con RNN |
Citazioni | 3857 |
Questo articolo dimostra come le reti neurali ricorrenti Long Short-Term Memory possono essere utilizzate per generare sequenze complesse con struttura a lungo raggio, semplicemente prevedendo un punto dati alla volta. L'approccio è dimostrato per il testo (dove i dati sono discreti) e la scrittura a mano online (dove i dati sono a valori reali). Viene quindi esteso alla sintesi della scrittura a mano consentendo alla rete di condizionare le sue previsioni su una sequenza di testo. Il sistema risultante è in grado di generare una scrittura corsiva altamente realistica in un'ampia varietà di stili.