Bilingual Evaluation Understudy (BLEU): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 1: Riga 1:
Nome: [[Nome::Bilingual Evaluation Understudy]]
{{Template benchmark
 
|Nome=Bilingual Evaluation Understudy
Sigla: [[Sigla::BLEU]]
|Sigla=BLEU
 
|Anno di creazione=2002
Anno di creazione: [[AnnoDiCreazione::2002]]
|URLHomePage=
 
|Pubblicazione=[[Attention Is All You Need (2017)]]
}}


Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.


Per esempio citato in [[Attention Is All You Need (2017)]]  
Per esempio citato in [[Attention Is All You Need (2017)]]
 
[[Category:benchmark]]
 
__SHOWFACTBOX__

Versione delle 11:32, 17 ago 2024

Bilingual Evaluation Understudy (BLEU)
Nome Bilingual Evaluation Understudy
Sigla BLEU
Anno di creazione 2002
URLHomePage
Pubblicazione [[Pubblicazione::Attention Is All You Need (2017)]]


Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.

Per esempio citato in Attention Is All You Need (2017)