Unsupervised Dense Information Retrieval with Contrastive Learning: differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 6: | Riga 6: | ||
|citazioni=615 | |citazioni=615 | ||
}} | }} | ||
Vedi anche: [[Contriever]] | |||
Questo studio esplora l'information retrieval denso non supervisionato mediante l'apprendimento contrastivo. L'obiettivo è migliorare la similarità semantica e l'efficacia della ricerca, in particolare in situazioni con pochi dati di addestramento o in contesti multilingue. I risultati mostrano che questo approccio supera i metodi tradizionali come BM25 in molti casi e offre un promettente punto di partenza per l'addestramento con dati limitati. Inoltre, dimostra buone capacità di trasferimento cross-linguale, aprendo nuove possibilità per la ricerca in lingue a basse risorse. | Questo studio esplora l'information retrieval denso non supervisionato mediante l'apprendimento contrastivo. L'obiettivo è migliorare la similarità semantica e l'efficacia della ricerca, in particolare in situazioni con pochi dati di addestramento o in contesti multilingue. I risultati mostrano che questo approccio supera i metodi tradizionali come BM25 in molti casi e offre un promettente punto di partenza per l'addestramento con dati limitati. Inoltre, dimostra buone capacità di trasferimento cross-linguale, aprendo nuove possibilità per la ricerca in lingue a basse risorse. |
Versione attuale delle 13:34, 24 nov 2024
Unsupervised Dense Information Retrieval with Contrastive Learning | |
---|---|
Data | 2021 |
Autori | Gautier Izacard, Mathilde Caron, Lucas Hosseini, Sebastian Riedel, Piotr Bojanowski, Armand Joulin, Edouard Grave |
URL | https://www.semanticscholar.org/paper/4f4a409f701f7552d45c46a5b0fea69dca6f8e84 |
Topic | Information Retrieval |
Citazioni | 615 |
Vedi anche: Contriever
Questo studio esplora l'information retrieval denso non supervisionato mediante l'apprendimento contrastivo. L'obiettivo è migliorare la similarità semantica e l'efficacia della ricerca, in particolare in situazioni con pochi dati di addestramento o in contesti multilingue. I risultati mostrano che questo approccio supera i metodi tradizionali come BM25 in molti casi e offre un promettente punto di partenza per l'addestramento con dati limitati. Inoltre, dimostra buone capacità di trasferimento cross-linguale, aprendo nuove possibilità per la ricerca in lingue a basse risorse.
Collegamenti
https://github.com/facebookresearch/contriever