Sequence to Sequence (seq2seq)

Da Wiki AI.
Versione del 25 mar 2024 alle 21:35 di Alesaccoia (discussione | contributi) (Creata pagina con "Classe di approcci e metodi utilizzati nel campo del deep learning, soprattutto nei task di traduzione automatica ma anche, per esempio, per la creazione di didascalie di immagini. Essi fondano le basi concettuali per le architetture transformer. Sono basati su un modello encoder-decoder in cui: * l''''encoder''' processa la sequenza di input creando una rappresentazione semantica dell'input, che catturi le informazioni e...")
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)

Classe di approcci e metodi utilizzati nel campo del deep learning, soprattutto nei task di traduzione automatica ma anche, per esempio, per la creazione di didascalie di immagini. Essi fondano le basi concettuali per le architetture transformer.

Sono basati su un modello encoder-decoder in cui:

  • l'encoder processa la sequenza di input creando una rappresentazione semantica dell'input, che catturi le informazioni essenziali
  • il decoder utilizza gli stati nascosti dell'encoder, in cui viene rappresentazione l'informazione per creare una sequenza di output

Esempio di utilizzo nel task di traduzione automatica

La pubblicazione Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation del 2014 dimostra il concetto perfettamente. Si può seguire il codice nell'implementazione a questo URL.