Bilingual Evaluation Understudy (BLEU): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 1: Riga 1:
Nome: [[Nome::Bilingual Evaluation Understudy]]
Sigla: [[Sigla::BLEU]]
Anno di creazione: [[AnnoDiCreazione::2002]]
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.


Riga 4: Riga 11:


[[Category:benchmark]]
[[Category:benchmark]]
__SHOWFACTBOX__

Versione delle 13:29, 11 apr 2024

Nome: Bilingual Evaluation Understudy

Sigla: BLEU

Anno di creazione: 2002


Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.

Per esempio citato in Attention Is All You Need (2017)