摘要
神经机器翻译(NMT)已经在很多翻译任务上获得了显著的提升效果,但它需要大规模的平行语料库作为支撑,而高质量的平行语料库往往很难获取。针对这一问题,提出了一个多语言无监督NMT模型,该模型使用一个共享编码器和多个解码器联合训练多种语言。实验结果表明,多语言无监督NMT模型方法比双语无监督NMT基线模型表现更好,在WMT测试集上,BLEU值最大提高了1.48%,并且此模型还可实现对训练过程中不可见语言对之间的翻译。
-
单位武汉邮电科学研究院