Unsupervised Dense Information Retrieval with Contrastive Learning: differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
 
Riga 6: Riga 6:
|citazioni=615
|citazioni=615
}}
}}
Vedi anche: [[Contriever]]


Questo studio esplora l'information retrieval denso non supervisionato mediante l'apprendimento contrastivo. L'obiettivo è migliorare la similarità semantica e l'efficacia della ricerca, in particolare in situazioni con pochi dati di addestramento o in contesti multilingue.  I risultati mostrano che questo approccio supera i metodi tradizionali come BM25 in molti casi e offre un promettente punto di partenza per l'addestramento con dati limitati.  Inoltre, dimostra buone capacità di trasferimento cross-linguale, aprendo nuove possibilità per la ricerca in lingue a basse risorse.
Questo studio esplora l'information retrieval denso non supervisionato mediante l'apprendimento contrastivo. L'obiettivo è migliorare la similarità semantica e l'efficacia della ricerca, in particolare in situazioni con pochi dati di addestramento o in contesti multilingue.  I risultati mostrano che questo approccio supera i metodi tradizionali come BM25 in molti casi e offre un promettente punto di partenza per l'addestramento con dati limitati.  Inoltre, dimostra buone capacità di trasferimento cross-linguale, aprendo nuove possibilità per la ricerca in lingue a basse risorse.

Versione attuale delle 13:34, 24 nov 2024

Unsupervised Dense Information Retrieval with Contrastive Learning
Data 2021
Autori Gautier Izacard, Mathilde Caron, Lucas Hosseini, Sebastian Riedel, Piotr Bojanowski, Armand Joulin, Edouard Grave
URL https://www.semanticscholar.org/paper/4f4a409f701f7552d45c46a5b0fea69dca6f8e84
Topic Information Retrieval
Citazioni 615


Vedi anche: Contriever


Questo studio esplora l'information retrieval denso non supervisionato mediante l'apprendimento contrastivo. L'obiettivo è migliorare la similarità semantica e l'efficacia della ricerca, in particolare in situazioni con pochi dati di addestramento o in contesti multilingue. I risultati mostrano che questo approccio supera i metodi tradizionali come BM25 in molti casi e offre un promettente punto di partenza per l'addestramento con dati limitati. Inoltre, dimostra buone capacità di trasferimento cross-linguale, aprendo nuove possibilità per la ricerca in lingue a basse risorse.

Collegamenti

https://github.com/facebookresearch/contriever