Contrastive Language-Image Pretraining (CLIP): differenze tra le versioni
(Creata pagina con "Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50. === Links === ==== Paper ==== [https://arxiv.org/abs/2103.00020 Learning Transferable Visual Models From Natural Language Supervision] ==== Altri ==== https://github.com/openai/CLIP...") |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50. | Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50. | ||
[[Stable Diffusion]] ne utilizza il [[tokenizer]]. | |||
=== Links === | === Links === |
Versione delle 21:42, 2 apr 2024
Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50.
Stable Diffusion ne utilizza il tokenizer.
Links
Paper
Learning Transferable Visual Models From Natural Language Supervision
Altri
https://github.com/openai/CLIP