Neural Machine Translation by Jointly Learning to Align and Translate
Neural Machine Translation by Jointly Learning to Align and Translate | |
---|---|
Data | 2014 |
Autori | Dzmitry Bahdanau, Kyunghyun Cho e Yoshua Bengio |
URL | https://www.semanticscholar.org/paper/fa72afa9b2cbc8f0d7b05d52548906610ffbb9c5 |
Topic | Neural Machine Translation |
Citazioni | 25744 |
La traduzione automatica neurale (NMT) è un approccio alla traduzione automatica proposto di recente. A differenza della tradizionale traduzione automatica statistica, la NMT mira a costruire una singola rete neurale che può essere congiuntamente messa a punto per massimizzare le prestazioni di traduzione. I modelli proposti di recente per la NMT appartengono spesso a una famiglia di encoder-decoder e sono costituiti da un encoder che codifica una frase di origine in un vettore di lunghezza fissa da cui un decoder genera una traduzione. Questo articolo ipotizza che l'uso di un vettore di lunghezza fissa sia un collo di bottiglia nel migliorare le prestazioni di questa architettura encoder-decoder di base e propone di estenderla consentendo a un modello di cercare automaticamente (soft-) parti di una frase di origine che sono rilevanti per prevedere una parola di destinazione, senza dover formare esplicitamente queste parti come un segmento rigido. Con questo nuovo approccio, si ottengono prestazioni di traduzione paragonabili all'attuale sistema frase per frase all'avanguardia nell'attività di traduzione inglese-francese. Inoltre, l'analisi qualitativa rivela che gli allineamenti (soft-) trovati dal modello sono in buon accordo con l'intuizione.