Deep Unsupervised Learning using Nonequilibrium Thermodynamics: differenze tra le versioni
(Creata pagina con "Titolo: Titolo::Deep Unsupervised Learning using Nonequilibrium Thermodynamics Anno di pubblicazione: AnnoDiPubblicazione::2015 Autori: Autori::Jascha Sohl-Dickstein; Autori::Eric A. Weiss; Autori::Niru Maheswaranathan; Autori::Surya Ganguli URL: URL::https://arxiv.org/pdf/1503.03585.pdf Topic: Topic::Esplorazione dell'applicazione dei principi della termodinamica non in equilibrio per potenziare l'apprendimento profondo non supervisiona...") |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
{{template pubblicazione | |||
|data=2015 | |||
|autori=Jascha Sohl-Dickstein, Eric A. Weiss, Niru Maheswaranathan, S. Ganguli | |||
|URL=https://www.semanticscholar.org/paper/2dcef55a07f8607a819c21fe84131ea269cc2e3c | |||
|topic=Apprendimento profondo non supervisionato | |||
|citazioni=4460 | |||
}} | |||
Questo articolo esplora l'applicazione dei principi della termodinamica di non equilibrio per migliorare l'apprendimento profondo non supervisionato. Propone un nuovo metodo che diffonde lentamente la struttura in una distribuzione di dati e poi impara un processo di diffusione inverso per ripristinare la struttura, creando un modello generativo flessibile e trattabile. Questo approccio consente l'apprendimento rapido, il campionamento e la valutazione delle probabilità in modelli generativi profondi con migliaia di strati o passaggi temporali. | |||
Versione attuale delle 10:41, 17 ago 2024
Deep Unsupervised Learning using Nonequilibrium Thermodynamics | |
---|---|
Data | 2015 |
Autori | Jascha Sohl-Dickstein, Eric A. Weiss, Niru Maheswaranathan, S. Ganguli |
URL | https://www.semanticscholar.org/paper/2dcef55a07f8607a819c21fe84131ea269cc2e3c |
Topic | Apprendimento profondo non supervisionato |
Citazioni | 4460 |
Questo articolo esplora l'applicazione dei principi della termodinamica di non equilibrio per migliorare l'apprendimento profondo non supervisionato. Propone un nuovo metodo che diffonde lentamente la struttura in una distribuzione di dati e poi impara un processo di diffusione inverso per ripristinare la struttura, creando un modello generativo flessibile e trattabile. Questo approccio consente l'apprendimento rapido, il campionamento e la valutazione delle probabilità in modelli generativi profondi con migliaia di strati o passaggi temporali.