Bilingual Evaluation Understudy (BLEU): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
(3 versioni intermedie di un altro utente non mostrate) | |||
Riga 1: | Riga 1: | ||
Nome | {{Template benchmark | ||
|Nome=BiLingual Evaluation Understudy | |||
|Sigla=BLEU | |||
|Anno di creazione=2002 | |||
Anno di creazione: | |URLHomePage= | ||
|Pubblicazione=BLEU: a method for automatic evaluation of machine translation | |||
}} | |||
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello. | Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello. | ||
Per esempio citato in [[Attention Is All You Need (2017) | Per esempio citato in [[Attention Is All You Need (2017)]] | ||
{{#seo: | |||
|title=Bilingual Evaluation Understudy - BLEU | |||
|title_mode=append | |||
|keywords=traduzione automatica, generazione del testo, valutazione, qualità, modello, BLEU, punteggio, riferimento, similarità | |||
|description=La metrica BLEU (Bilingual Evaluation Understudy) misura la similarità tra un testo generato da un modello e un testo di riferimento. Più il punteggio BLEU è vicino a 1, maggiore è la somiglianza. Viene spesso utilizzato per valutare la qualità dei modelli di traduzione automatica e di generazione del testo, come descritto nel documento 'Attention Is All You Need'. | |||
}} |
Versione attuale delle 05:02, 9 set 2024
Bilingual Evaluation Understudy (BLEU) | |
---|---|
Nome | BiLingual Evaluation Understudy |
Sigla | BLEU |
Anno di creazione | 2002 |
URLHomePage | |
Pubblicazione | BLEU: a method for automatic evaluation of machine translation |
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.
Per esempio citato in Attention Is All You Need (2017)