Mean Reciprocal Rank: differenze tra le versioni
Nessun oggetto della modifica |
|||
| Riga 27: | Riga 27: | ||
== Benchmarking dei modelli di [[Embeddings|embedding]] == | == Benchmarking dei modelli di [[Embeddings|embedding]] == | ||
Si parte da un dataset contenente coppie di query e documenti rilevanti (ground truth). Questo dataset serve come riferimento per valutare l'accuratezza del sistema. | Si parte da un dataset contenente coppie di query e documenti rilevanti (ground truth). Questo dataset serve come riferimento per valutare l'accuratezza del sistema. | ||
=== Processo di calcolo === | === Processo di calcolo === | ||
Per ogni query nel dataset di test: | |||
* Si utilizza il modelle di embedding per recuperare i k documenti più rilevanti | |||
* Si identifica la posizione (rank) del primo documento corretto nella lista dei risultati | |||
* Si calcola il reciproco di questa posizione (1/rank) | |||
* Se il documento corretto non appare tra i primi k risultati, si assegna un punteggio di 0 | |||
=== Interpretazione === | === Interpretazione === | ||
Versione delle 16:26, 10 dic 2024
La Classificazione Media Reciproca (Mean Reciprocal Rank o MRR) è una misura statistica utilizzata nella valutazione dei sistemi di recupero delle informazioni e dei motori di ricerca. Calcola il reciproco del rango della prima risposta corretta, mediato su tutte le query.
Formula
La formula del MRR è:
Dove:
- |Q| è il numero totale di query
- ranki è la posizione della prima risposta corretta per la query i-esima
Esempio
Se per tre query diverse, la prima risposta corretta appare rispettivamente in posizione 1, 2 e 4:
| Query | Posizione documento corretto | Reciproco |
|---|---|---|
| Query 1 | 1 | 1/1 = 1,0 |
| Query 2 | 2 | 1/2 = 0,5 |
| Query 3 | 4 | 1/4 = 0,25 |
il MRR sarà:
Benchmarking dei modelli di embedding
Si parte da un dataset contenente coppie di query e documenti rilevanti (ground truth). Questo dataset serve come riferimento per valutare l'accuratezza del sistema.
Processo di calcolo
Per ogni query nel dataset di test:
- Si utilizza il modelle di embedding per recuperare i k documenti più rilevanti
- Si identifica la posizione (rank) del primo documento corretto nella lista dei risultati
- Si calcola il reciproco di questa posizione (1/rank)
- Se il documento corretto non appare tra i primi k risultati, si assegna un punteggio di 0
Interpretazione
- Un MRR di 1.0 indica performance perfette (documento corretto sempre in prima posizione)
- Valori più vicini a 1.0 indicano migliore performance del sistema
- Il punteggio tiene conto solo della prima risposta corretta per ogni query