DeepJ: Style-Specific Music Generation (2018): differenze tra le versioni

Da Wiki AI.
(Pagina sostituita con ' == Link ==')
Etichetta: Sostituito
Nessun oggetto della modifica
 
(26 versioni intermedie di 2 utenti non mostrate)
Riga 1: Riga 1:
{{template pubblicazione
|data=2018
|autori=H. H. Mao, Taylor Shin, G. Cottrell
|URL=https://www.semanticscholar.org/paper/c1cdc5684640ace97c0b86bcdcfd6e519f87b840
|topic=Generazione di musica con reti neurali
|citazioni=86
}}


 
DeepJ1 (o DJ) è un modello di apprendimento profondo in grado di comporre musica polifonica condizionata a uno stile specifico o a una miscela di più stili compositivi. Si basa sul Biaxial LSTM ma introduce innovazioni per il controllo dello stile e della dinamica musicale, con l'obiettivo di generare musica più coerente e personalizzabile per applicazioni creative come il cinema o la composizione musicale assistita.
== Link ==

Versione attuale delle 10:42, 17 ago 2024

DeepJ: Style-Specific Music Generation (2018)
Data 2018
Autori H. H. Mao, Taylor Shin, G. Cottrell
URL https://www.semanticscholar.org/paper/c1cdc5684640ace97c0b86bcdcfd6e519f87b840
Topic Generazione di musica con reti neurali
Citazioni 86


DeepJ1 (o DJ) è un modello di apprendimento profondo in grado di comporre musica polifonica condizionata a uno stile specifico o a una miscela di più stili compositivi. Si basa sul Biaxial LSTM ma introduce innovazioni per il controllo dello stile e della dinamica musicale, con l'obiettivo di generare musica più coerente e personalizzabile per applicazioni creative come il cinema o la composizione musicale assistita.