Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation

Da Wiki AI.
Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation
Data 2014
Autori Kyunghyun Cho, B. V. Merrienboer, Çaglar Gülçehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, Yoshua Bengio
URL https://www.semanticscholar.org/paper/0b544dfe355a5070b60986319a3f51fb45d1348e
Topic Traduzione automatica
Citazioni 21477


Questo articolo propone un nuovo modello di rete neurale chiamato RNN Encoder-Decoder, costituito da due reti neurali ricorrenti (RNN). Una RNN codifica una sequenza di simboli in una rappresentazione vettoriale di lunghezza fissa, mentre l'altra decodifica la rappresentazione in un'altra sequenza di simboli. L'encoder e il decoder del modello proposto vengono addestrati congiuntamente per massimizzare la probabilità condizionata di una sequenza di destinazione data una sequenza di origine. Si è scoperto empiricamente che le prestazioni di un sistema di traduzione automatica statistica migliorano utilizzando le probabilità condizionate di coppie di frasi calcolate dall'RNN Encoder-Decoder come caratteristica aggiuntiva nel modello log-lineare esistente. Qualitativamente, mostriamo che il modello proposto apprende una rappresentazione semantica e sintatticamente significativa delle frasi linguistiche.