DeepJ: Style-Specific Music Generation (2018): differenze tra le versioni
(→Link) |
Nessun oggetto della modifica |
||
(7 versioni intermedie di 2 utenti non mostrate) | |||
Riga 1: | Riga 1: | ||
{{template pubblicazione | |||
|data=2018 | |||
|autori=H. H. Mao, Taylor Shin, G. Cottrell | |||
|URL=https://www.semanticscholar.org/paper/c1cdc5684640ace97c0b86bcdcfd6e519f87b840 | |||
|topic=Generazione di musica con reti neurali | |||
|citazioni=86 | |||
}} | |||
DeepJ1 (o DJ) è un modello di apprendimento profondo in grado di comporre | DeepJ1 (o DJ) è un modello di apprendimento profondo in grado di comporre musica polifonica condizionata a uno stile specifico o a una miscela di più stili compositivi. Si basa sul Biaxial LSTM ma introduce innovazioni per il controllo dello stile e della dinamica musicale, con l'obiettivo di generare musica più coerente e personalizzabile per applicazioni creative come il cinema o la composizione musicale assistita. | ||
Versione attuale delle 10:42, 17 ago 2024
DeepJ: Style-Specific Music Generation (2018) | |
---|---|
Data | 2018 |
Autori | H. H. Mao, Taylor Shin, G. Cottrell |
URL | https://www.semanticscholar.org/paper/c1cdc5684640ace97c0b86bcdcfd6e519f87b840 |
Topic | Generazione di musica con reti neurali |
Citazioni | 86 |
DeepJ1 (o DJ) è un modello di apprendimento profondo in grado di comporre musica polifonica condizionata a uno stile specifico o a una miscela di più stili compositivi. Si basa sul Biaxial LSTM ma introduce innovazioni per il controllo dello stile e della dinamica musicale, con l'obiettivo di generare musica più coerente e personalizzabile per applicazioni creative come il cinema o la composizione musicale assistita.