Bilingual Evaluation Understudy (BLEU): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
Nome: [[Nome::Bilingual Evaluation Understudy]] | |||
Sigla: [[Sigla::BLEU]] | |||
Anno di creazione: [[AnnoDiCreazione::2002]] | |||
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello. | Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello. | ||
Riga 4: | Riga 11: | ||
[[Category:benchmark]] | [[Category:benchmark]] | ||
__SHOWFACTBOX__ |
Versione delle 13:29, 11 apr 2024
Nome: Bilingual Evaluation Understudy
Sigla: BLEU
Anno di creazione: 2002
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.
Per esempio citato in Attention Is All You Need (2017)