Contamination Testing: differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
 
(3 versioni intermedie di 2 utenti non mostrate)
Riga 1: Riga 1:
{{Template concetto
|NomeInglese=Contamination Testing
}}
Test che permettono di determinare se e quanto un determinato dataset che viene utilizzato per il benchmarking di un modello di linguaggio sia stato "visto" dal modello durante il training, inficiando in questo modo i risultati del benchmark.
Test che permettono di determinare se e quanto un determinato dataset che viene utilizzato per il benchmarking di un modello di linguaggio sia stato "visto" dal modello durante il training, inficiando in questo modo i risultati del benchmark.


Riga 4: Riga 8:
* [[Functional Benchmarks for Robust Evaluation of Reasoning Performance, and the Reasoning Gap (29/02/2024)]]
* [[Functional Benchmarks for Robust Evaluation of Reasoning Performance, and the Reasoning Gap (29/02/2024)]]


[[Category:concetto]]
{{#seo:
            |title=Contamination Testing
            |title_mode=append
            |keywords=test, dataset, benchmark, modello di linguaggio, training, risultati, valutazione, performance, inficiare, contaminazione
            |description=I Contamination Testing sono test che permettono di determinare se e quanto un dataset utilizzato per il benchmarking di un modello di linguaggio sia stato già visto dal modello durante la fase di training, compromettendo l'affidabilità dei risultati del benchmark.
           
            }}

Versione attuale delle 13:46, 17 ago 2024

Contamination Testing
Nome Inglese Contamination Testing
Sigla


Test che permettono di determinare se e quanto un determinato dataset che viene utilizzato per il benchmarking di un modello di linguaggio sia stato "visto" dal modello durante il training, inficiando in questo modo i risultati del benchmark.

Citato in