Contrastive Language-Image Pretraining (CLIP): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 7: Riga 7:
|Topic=classificazione,immagini
|Topic=classificazione,immagini
}}
}}
Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50.
Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50.



Versione delle 18:37, 21 apr 2024

Contrastive Language-Image Pretraining (CLIP)
Nome Inglese Contrastive Language-Image Pretraining
Sigla CLIP
Anno Di Creazione 2021
Pubblicazione Learning Transferable Visual Models From Natural Language Supervision
URL https://openai.com/research/clip
Topic classificazione, immagini

Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50.

Stable Diffusion ne utilizza il tokenizer.

Links

Paper

Learning Transferable Visual Models From Natural Language Supervision

Altri

https://github.com/openai/CLIP

https://openai.com/research/clip

https://huggingface.co/docs/transformers/model_doc/clip