Unsupervised Dense Information Retrieval with Contrastive Learning: differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 9: | Riga 9: | ||
Questo studio esplora l'information retrieval denso non supervisionato mediante l'apprendimento contrastivo. L'obiettivo è migliorare la similarità semantica e l'efficacia della ricerca, in particolare in situazioni con pochi dati di addestramento o in contesti multilingue. I risultati mostrano che questo approccio supera i metodi tradizionali come BM25 in molti casi e offre un promettente punto di partenza per l'addestramento con dati limitati. Inoltre, dimostra buone capacità di trasferimento cross-linguale, aprendo nuove possibilità per la ricerca in lingue a basse risorse. | Questo studio esplora l'information retrieval denso non supervisionato mediante l'apprendimento contrastivo. L'obiettivo è migliorare la similarità semantica e l'efficacia della ricerca, in particolare in situazioni con pochi dati di addestramento o in contesti multilingue. I risultati mostrano che questo approccio supera i metodi tradizionali come BM25 in molti casi e offre un promettente punto di partenza per l'addestramento con dati limitati. Inoltre, dimostra buone capacità di trasferimento cross-linguale, aprendo nuove possibilità per la ricerca in lingue a basse risorse. | ||
=== Collegamenti === | |||
https://github.com/facebookresearch/contriever | |||
[[Category:Pubblicazione]] | [[Category:Pubblicazione]] | ||
Versione delle 10:34, 24 nov 2024
Unsupervised Dense Information Retrieval with Contrastive Learning | |
---|---|
Data | 2021 |
Autori | Gautier Izacard, Mathilde Caron, Lucas Hosseini, Sebastian Riedel, Piotr Bojanowski, Armand Joulin, Edouard Grave |
URL | https://www.semanticscholar.org/paper/4f4a409f701f7552d45c46a5b0fea69dca6f8e84 |
Topic | Information Retrieval |
Citazioni | 615 |
Questo studio esplora l'information retrieval denso non supervisionato mediante l'apprendimento contrastivo. L'obiettivo è migliorare la similarità semantica e l'efficacia della ricerca, in particolare in situazioni con pochi dati di addestramento o in contesti multilingue. I risultati mostrano che questo approccio supera i metodi tradizionali come BM25 in molti casi e offre un promettente punto di partenza per l'addestramento con dati limitati. Inoltre, dimostra buone capacità di trasferimento cross-linguale, aprendo nuove possibilità per la ricerca in lingue a basse risorse.
Collegamenti
https://github.com/facebookresearch/contriever