Contrastive Language-Image Pretraining (CLIP): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
Nome: [[Nome::Contrastive Language-Image Pretraining]] | |||
Sigla: [[Sigla::CLIP]] | |||
Anno di creazione: [[AnnoDiCreazione::2021]] | |||
URL HomePage: [[URLHomePage::https://openai.com/research/clip]] | |||
Pubblicazione: [[Learning Transferable Visual Models From Natural Language Supervision]] | |||
Topic: [[Apprendimento multimodale e comprensione visiva attraverso testo e immagine]] | |||
Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50. | Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50. | ||
Riga 16: | Riga 29: | ||
[[Category:architettura]] | [[Category:architettura]] | ||
__SHOWFACTBOX__ |
Versione delle 10:13, 9 apr 2024
Nome: Contrastive Language-Image Pretraining
Sigla: CLIP
Anno di creazione: 2021
URL HomePage: https://openai.com/research/clip
Pubblicazione: Learning Transferable Visual Models From Natural Language Supervision
Topic: Apprendimento multimodale e comprensione visiva attraverso testo e immagine
Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50.
Stable Diffusion ne utilizza il tokenizer.
Links
Paper
Learning Transferable Visual Models From Natural Language Supervision
Altri
https://github.com/openai/CLIP
https://openai.com/research/clip
https://huggingface.co/docs/transformers/model_doc/clip