Contrastive Language-Image Pretraining (CLIP): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
(4 versioni intermedie di un altro utente non mostrate) | |||
Riga 1: | Riga 1: | ||
{{template architettura | |||
|NomeInglese=Contrastive Language-Image Pretraining | |||
Sigla | |Sigla=CLIP | ||
|AnnoDiCreazione=2021 | |||
|Pubblicazione=Learning Transferable Visual Models From Natural Language Supervision | |||
|URLHomePage=https://openai.com/research/clip | |||
|Topic=classificazione,immagini | |||
}} | |||
Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50. | Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50. | ||
Riga 28: | Riga 25: | ||
[[Category:architettura]] | [[Category:architettura]] | ||
{{#seo: | |||
|title=Contrastive Language-Image Pretraining (CLIP) | |||
|title_mode=append | |||
|keywords=classificazione, immagini, rete neurale, apprendimento supervisionato, zero-shot, ResNet-50, tokenizer, Stable Diffusion | |||
|description=CLIP è un modello di rete neurale sviluppato da OpenAI che permette la classificazione zero-shot di immagini. Pubblicato nel 2021, CLIP non richiede apprendimento supervisionato e utilizza un layer di classificazione aggiunto a un modello pre-addestrato come ResNet-50. Scopri di più su CLIP e le sue applicazioni. | |||
|image=Uploaded_file.png | |||
}} |
Versione attuale delle 13:33, 17 ago 2024
Contrastive Language-Image Pretraining (CLIP) | |
---|---|
Nome Inglese | Contrastive Language-Image Pretraining |
Sigla | CLIP |
Anno Di Creazione | 2021 |
Pubblicazione | Learning Transferable Visual Models From Natural Language Supervision |
URL | https://openai.com/research/clip |
Topic | classificazione, immagini |
Un modello di rete neurale pubblicato da OpenAI nel Febbraio 2021 che permette la classificazione zero-shot di immagini senza un apprendimento supervisionato in cui, attraverso fine-tuning, viene aggiunto un layer di classificazione a un modello pre-addestrato com per esempoio ResNet-50.
Stable Diffusion ne utilizza il tokenizer.
Links
Paper
Learning Transferable Visual Models From Natural Language Supervision
Altri
https://github.com/openai/CLIP
https://openai.com/research/clip
https://huggingface.co/docs/transformers/model_doc/clip