Unsupervised Dense Information Retrieval with Contrastive Learning: differenze tra le versioni

Da Wiki AI.
(Creata pagina vuota)
 
Nessun oggetto della modifica
 
(4 versioni intermedie di 2 utenti non mostrate)
Riga 1: Riga 1:
{{template pubblicazione
|data=2021
|autori=Gautier Izacard, Mathilde Caron, Lucas Hosseini, Sebastian Riedel, Piotr Bojanowski, Armand Joulin, Edouard Grave
|URL=https://www.semanticscholar.org/paper/4f4a409f701f7552d45c46a5b0fea69dca6f8e84
|topic=Information Retrieval
|citazioni=615
}}


Vedi anche: [[Contriever]]
Questo studio esplora l'information retrieval denso non supervisionato mediante l'apprendimento contrastivo. L'obiettivo è migliorare la similarità semantica e l'efficacia della ricerca, in particolare in situazioni con pochi dati di addestramento o in contesti multilingue.  I risultati mostrano che questo approccio supera i metodi tradizionali come BM25 in molti casi e offre un promettente punto di partenza per l'addestramento con dati limitati.  Inoltre, dimostra buone capacità di trasferimento cross-linguale, aprendo nuove possibilità per la ricerca in lingue a basse risorse.
=== Collegamenti ===
https://github.com/facebookresearch/contriever
[[Category:Pubblicazione]]
{{#seo:
|title=Unsupervised Dense Information Retrieval with Contrastive Learning
|title_mode=append
|keywords=information retrieval, apprendimento contrastivo, similarità semantica, ricerca non supervisionata, pochi dati, multilingue, BM25, trasferimento cross-linguale, lingue a basse risorse, addestramento con dati limitati
|description=Studio sull'information retrieval denso non supervisionato con apprendimento contrastivo.  Supera metodi tradizionali come BM25, migliorando la similarità semantica, specie in contesti multilingue o con pochi dati.
}}

Versione attuale delle 13:34, 24 nov 2024

Unsupervised Dense Information Retrieval with Contrastive Learning
Data 2021
Autori Gautier Izacard, Mathilde Caron, Lucas Hosseini, Sebastian Riedel, Piotr Bojanowski, Armand Joulin, Edouard Grave
URL https://www.semanticscholar.org/paper/4f4a409f701f7552d45c46a5b0fea69dca6f8e84
Topic Information Retrieval
Citazioni 615


Vedi anche: Contriever


Questo studio esplora l'information retrieval denso non supervisionato mediante l'apprendimento contrastivo. L'obiettivo è migliorare la similarità semantica e l'efficacia della ricerca, in particolare in situazioni con pochi dati di addestramento o in contesti multilingue. I risultati mostrano che questo approccio supera i metodi tradizionali come BM25 in molti casi e offre un promettente punto di partenza per l'addestramento con dati limitati. Inoltre, dimostra buone capacità di trasferimento cross-linguale, aprendo nuove possibilità per la ricerca in lingue a basse risorse.

Collegamenti

https://github.com/facebookresearch/contriever