Bilingual Evaluation Understudy (BLEU): differenze tra le versioni

Da Wiki AI.
(Creata pagina con "Valutazione bilingue in italiano. Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello. Category:benchmark")
 
Nessun oggetto della modifica
Riga 1: Riga 1:
Valutazione bilingue in italiano. Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.
 
Per esempio citato in [[Attention Is All You Need (2017)]]


[[Category:benchmark]]
[[Category:benchmark]]

Versione delle 09:41, 25 mar 2024

Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.

Per esempio citato in Attention Is All You Need (2017)