Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation
Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation | |
---|---|
Data | 2014 |
Autori | Kyunghyun Cho, B. V. Merrienboer, Çaglar Gülçehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, Yoshua Bengio |
URL | https://www.semanticscholar.org/paper/0b544dfe355a5070b60986319a3f51fb45d1348e |
Topic | Traduzione automatica |
Citazioni | 21477 |
Questo articolo propone un nuovo modello di rete neurale chiamato RNN Encoder-Decoder, costituito da due reti neurali ricorrenti (RNN). Una RNN codifica una sequenza di simboli in una rappresentazione vettoriale di lunghezza fissa, mentre l'altra decodifica la rappresentazione in un'altra sequenza di simboli. L'encoder e il decoder del modello proposto vengono addestrati congiuntamente per massimizzare la probabilità condizionata di una sequenza di destinazione data una sequenza di origine. Si è scoperto empiricamente che le prestazioni di un sistema di traduzione automatica statistica migliorano utilizzando le probabilità condizionate di coppie di frasi calcolate dall'RNN Encoder-Decoder come caratteristica aggiuntiva nel modello log-lineare esistente. Qualitativamente, mostriamo che il modello proposto apprende una rappresentazione semantica e sintatticamente significativa delle frasi linguistiche.