Contrastive Language-Image Pretraining (CLIP): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 7: | Riga 7: | ||
|Topic=classificazione,immagini | |Topic=classificazione,immagini | ||
}} | }} | ||
Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50. | Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50. | ||
Versione delle 18:37, 21 apr 2024
Contrastive Language-Image Pretraining (CLIP) | |
---|---|
Nome Inglese | Contrastive Language-Image Pretraining |
Sigla | CLIP |
Anno Di Creazione | 2021 |
Pubblicazione | Learning Transferable Visual Models From Natural Language Supervision |
URL | https://openai.com/research/clip |
Topic | classificazione, immagini |
Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50.
Stable Diffusion ne utilizza il tokenizer.
Links
Paper
Learning Transferable Visual Models From Natural Language Supervision
Altri
https://github.com/openai/CLIP