How to Fine Tune Bert for Sequence Classification?

Da Wiki AI.
How to Fine Tune Bert for Sequence Classification?
Data 2019
Autori Jinhua Zhu, Yingce Xia, Lijun Wu, Di He, Tao Qin, Wen-gang Zhou, Houqiang Li, Tie-Yan Liu
URL https://www.semanticscholar.org/paper/dc373d5e108a90a70f55285a852a32706adbeb45
Topic Modelli di Linguaggio, Traduzione Automatica
Citazioni 312


Questo articolo esplora come integrare efficacemente BERT nei sistemi di Neural Machine Translation (NMT). A differenza di altri compiti di elaborazione del linguaggio naturale in cui BERT viene spesso utilizzato per il fine-tuning, gli autori dimostrano che in NMT l'utilizzo di BERT come embedding contestuale risulta più vantaggioso.

Propongono un nuovo algoritmo chiamato "BERT-fused model", in cui le rappresentazioni estratte da BERT per una sequenza di input vengono fuse con ogni livello dell'encoder e del decoder del modello NMT attraverso meccanismi di attenzione.

Questo approccio ha permesso di ottenere risultati all'avanguardia in diversi compiti di traduzione automatica, tra cui la traduzione supervisionata a livello di frase e di documento, la traduzione semi-supervisionata e quella non supervisionata.