Bilingual Evaluation Understudy (BLEU): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
Nome | {{Template benchmark | ||
|Nome=Bilingual Evaluation Understudy | |||
Sigla | |Sigla=BLEU | ||
|Anno di creazione=2002 | |||
Anno di creazione | |URLHomePage= | ||
|Pubblicazione=[[Attention Is All You Need (2017)]] | |||
}} | |||
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello. | Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello. | ||
Per esempio citato in [[Attention Is All You Need (2017)]] | Per esempio citato in [[Attention Is All You Need (2017)]] | ||
Versione delle 11:32, 17 ago 2024
Bilingual Evaluation Understudy (BLEU) | |
---|---|
Nome | Bilingual Evaluation Understudy |
Sigla | BLEU |
Anno di creazione | 2002 |
URLHomePage | |
Pubblicazione | [[Pubblicazione::Attention Is All You Need (2017)]] |
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.
Per esempio citato in Attention Is All You Need (2017)