Bilingual Evaluation Understudy (BLEU): differenze tra le versioni

Da Wiki AI.
(Creata pagina con "Valutazione bilingue in italiano. Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello. Category:benchmark")
 
Nessun oggetto della modifica
 
(5 versioni intermedie di 3 utenti non mostrate)
Riga 1: Riga 1:
Valutazione bilingue in italiano. Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.
{{Template benchmark
|Nome=BiLingual Evaluation Understudy
|Sigla=BLEU
|Anno di creazione=2002
|URLHomePage=
|Pubblicazione=BLEU: a method for automatic evaluation of machine translation
}}


[[Category:benchmark]]
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.
 
Per esempio citato in [[Attention Is All You Need (2017)]]
 
{{#seo:
            |title=Bilingual Evaluation Understudy - BLEU
            |title_mode=append
            |keywords=traduzione automatica, generazione del testo, valutazione, qualità, modello, BLEU, punteggio, riferimento, similarità
            |description=La metrica BLEU (Bilingual Evaluation Understudy) misura la similarità tra un testo generato da un modello e un testo di riferimento. Più il punteggio BLEU è vicino a 1, maggiore è la somiglianza. Viene spesso utilizzato per valutare la qualità dei modelli di traduzione automatica e di generazione del testo, come descritto nel documento 'Attention Is All You Need'.
           
            }}

Versione attuale delle 05:02, 9 set 2024

Bilingual Evaluation Understudy (BLEU)
Nome BiLingual Evaluation Understudy
Sigla BLEU
Anno di creazione 2002
URLHomePage
Pubblicazione BLEU: a method for automatic evaluation of machine translation


Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.

Per esempio citato in Attention Is All You Need (2017)