Contrastive Language-Image Pretraining (CLIP)

Da Wiki AI.
Versione del 2 apr 2024 alle 21:41 di Alesaccoia (discussione | contributi) (Creata pagina con "Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50. === Links === ==== Paper ==== [https://arxiv.org/abs/2103.00020 Learning Transferable Visual Models From Natural Language Supervision] ==== Altri ==== https://github.com/openai/CLIP...")
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)

Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50.

Links

Paper

Learning Transferable Visual Models From Natural Language Supervision

Altri

https://github.com/openai/CLIP

https://openai.com/research/clip

https://huggingface.co/docs/transformers/model_doc/clip