Bilingual Evaluation Understudy (BLEU): differenze tra le versioni
(Creata pagina con "Valutazione bilingue in italiano. Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello. Category:benchmark") |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello. | |||
Per esempio citato in [[Attention Is All You Need (2017)]] | |||
[[Category:benchmark]] | [[Category:benchmark]] |
Versione delle 09:41, 25 mar 2024
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.
Per esempio citato in Attention Is All You Need (2017)