Contrastive Language-Image Pretraining (CLIP): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
 
(4 versioni intermedie di un altro utente non mostrate)
Riga 1: Riga 1:
Nome Inglese: [[NomeInglese::Contrastive Language-Image Pretraining]]
{{template architettura
 
|NomeInglese=Contrastive Language-Image Pretraining
Sigla: [[Sigla::CLIP]]
|Sigla=CLIP
 
|AnnoDiCreazione=2021
Anno di creazione: [[AnnoDiCreazione::2021]]
|Pubblicazione=Learning Transferable Visual Models From Natural Language Supervision
 
|URLHomePage=https://openai.com/research/clip
URL HomePage: [https://openai.com/research/clip HomePage CLIP]
|Topic=classificazione,immagini
 
}}
Pubblicazione: [[Pubblicazione::Learning Transferable Visual Models From Natural Language Supervision]]
 
 
Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50.
Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50.


Riga 28: Riga 25:
[[Category:architettura]]
[[Category:architettura]]


__SHOWFACTBOX__
{{#seo:
            |title=Contrastive Language-Image Pretraining (CLIP)
            |title_mode=append
            |keywords=classificazione, immagini, rete neurale, apprendimento supervisionato, zero-shot, ResNet-50, tokenizer, Stable Diffusion
            |description=CLIP è un modello di rete neurale sviluppato da OpenAI che permette la classificazione zero-shot di immagini. Pubblicato nel 2021, CLIP non richiede apprendimento supervisionato e utilizza un layer di classificazione aggiunto a un modello pre-addestrato come ResNet-50. Scopri di più su CLIP e le sue applicazioni.
            |image=Uploaded_file.png
            }}

Versione attuale delle 13:33, 17 ago 2024

Contrastive Language-Image Pretraining (CLIP)
Nome Inglese Contrastive Language-Image Pretraining
Sigla CLIP
Anno Di Creazione 2021
Pubblicazione Learning Transferable Visual Models From Natural Language Supervision
URL https://openai.com/research/clip
Topic classificazione, immagini

Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50.

Stable Diffusion ne utilizza il tokenizer.

Links

Paper

Learning Transferable Visual Models From Natural Language Supervision

Altri

https://github.com/openai/CLIP

https://openai.com/research/clip

https://huggingface.co/docs/transformers/model_doc/clip