Mean Reciprocal Rank: differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Riga 27: Riga 27:


== Benchmarking dei modelli di [[Embeddings|embedding]] ==
== Benchmarking dei modelli di [[Embeddings|embedding]] ==
=== Dataset e preparazione ===
Si parte da un dataset contenente coppie di query e documenti rilevanti (ground truth). Questo dataset serve come riferimento per valutare l'accuratezza del sistema.
Si parte da un dataset contenente coppie di query e documenti rilevanti (ground truth). Questo dataset serve come riferimento per valutare l'accuratezza del sistema.


=== Processo di calcolo ===
=== Processo di calcolo ===
# Per ogni query nel dataset di test:
Per ogni query nel dataset di test:
#* Si utilizzano i modelli di embedding per recuperare i k documenti più rilevanti
* Si utilizza il modelle di embedding per recuperare i k documenti più rilevanti
#* Si identifica la posizione (rank) del primo documento corretto nella lista dei risultati
* Si identifica la posizione (rank) del primo documento corretto nella lista dei risultati
#* Si calcola il reciproco di questa posizione (1/rank)
* Si calcola il reciproco di questa posizione (1/rank)
#* Se il documento corretto non appare tra i primi k risultati, si assegna un punteggio di 0
* Se il documento corretto non appare tra i primi k risultati, si assegna un punteggio di 0


=== Interpretazione ===
=== Interpretazione ===

Versione delle 16:26, 10 dic 2024

La Classificazione Media Reciproca (Mean Reciprocal Rank o MRR) è una misura statistica utilizzata nella valutazione dei sistemi di recupero delle informazioni e dei motori di ricerca. Calcola il reciproco del rango della prima risposta corretta, mediato su tutte le query.

Formula

La formula del MRR è:

Dove:

  • |Q| è il numero totale di query
  • ranki è la posizione della prima risposta corretta per la query i-esima

Esempio

Se per tre query diverse, la prima risposta corretta appare rispettivamente in posizione 1, 2 e 4:

Query Posizione documento corretto Reciproco
Query 1 1 1/1 = 1,0
Query 2 2 1/2 = 0,5
Query 3 4 1/4 = 0,25

il MRR sarà:

Benchmarking dei modelli di embedding

Si parte da un dataset contenente coppie di query e documenti rilevanti (ground truth). Questo dataset serve come riferimento per valutare l'accuratezza del sistema.

Processo di calcolo

Per ogni query nel dataset di test:

  • Si utilizza il modelle di embedding per recuperare i k documenti più rilevanti
  • Si identifica la posizione (rank) del primo documento corretto nella lista dei risultati
  • Si calcola il reciproco di questa posizione (1/rank)
  • Se il documento corretto non appare tra i primi k risultati, si assegna un punteggio di 0

Interpretazione

  • Un MRR di 1.0 indica performance perfette (documento corretto sempre in prima posizione)
  • Valori più vicini a 1.0 indicano migliore performance del sistema
  • Il punteggio tiene conto solo della prima risposta corretta per ogni query