1. Extract and Edit:
An Alternative to Back-Translation
for Unsupervised Neural Machine
Translation [1]
2019/07/23
1
[1] Wu, Jiawei, Xin Wang, and William Yang Wang. "Extract and Edit: An
Alternative to Back-Translation for Unsupervised Neural Machine
Translation." arXiv preprint arXiv:1904.02331(2019).
※大変なので,今回はほとんど作図してません.
26. 26
ablation study
comparable loss の効果
comparable translation loss の効果を en⇒fr で検証
Extract-Edit による文を正解として最尤推定した場合と比較※
comparable loss により,ノイズの影響を避けて学習可能
最尤推定(Maximum Likelihood Estimation)
= 通常の学習をした場合
⇒ 精度が 50%減
◆ニューラル機械翻訳はノイズの割合が強く影響
◆comparable loss はノイズとなる文を多く抽出しても学習可能
※本来の対訳コーパスを Extract-Edit によって拡張したデータで
comparable loss ではなく,MLE loss を用いて学習した場合
27. 27
まとめ
◆reconstruction loss から comparable loss へ
◆Extract-Edit に使用した文章は翻訳時の⚓(錨)であり目印
◆Top-10 Extract+Edit の時,2 BLUE points 向上
逆翻訳に代わる unsupervised 手法,Extract-Edit を提案
2言語間でドメインの重複が多い程,精度が向上
⇒ Wikipedia や news 記事を用いても精度が向上するかも?
今後の発展
28. おまけ
◆ supervised と比べると?
⇒ まだまだ良くはない
◆ 一方,1位は
Transformer + back-translation
⇒ 今後の発展に期待
[9] paper with code,
https://paperswithcode.com/sota/
machine-translation-on-wmt2014-
english-French 2019/07/23
28
Transformer
+ back-translation
Transformer[5]
seq2seq[4]
比較手法’[7]
比較手法[7]
今回(27.56)
paper with code の WMT en-fr [9]
※今回は比較対象外
29. 29
参考文献
[4] Sutskever, Ilya, Oriol Vinyals, and Quoc V. Le. "Sequence to sequence learning
with neural networks." In Advances in neural information processing systems, pp.
3104-3112. 2014.
[5] Vaswani, Ashish, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones,
Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin. "Attention is all you need."
In Advances in neural information processing systems, pp. 5998-6008. 2017.
[6] 根石 将人,吉永 直樹.”英日翻訳タスクにおけるスワップモデルを通した
seq2seq と Transformer の比較” 言語処理学会(2019).
https://www.anlp.jp/proceedings/annual_meeting/2019/pdf_dir/P5-21.pdf
「Phrase-Based & Neural Unsupervised Machine Translation.」‘s video,
https://vimeo.com/306145842