提高一对多多语言翻译的三种策略

王以宁,张佳军,翟飞飞,徐静芳,宗成庆


摘要
由于模型紧凑的优点,基于通用编解码结构的多语言翻译(包括多对一、多对多和一对多)越来越受到关注。然而,先前的研究表明,基于该框架的一对多翻译无法与单独训练的模型相媲美。在这项工作中,我们引入了三种策略,通过平衡共享和独特的特征来改进一对多多语言翻译。在所有目标语言的一个解码器架构中,我们首先利用不同目标语言的独特初始状态。然后,我们使用依赖于语言的位置嵌入。最后,特别是,我们建议将解码器的隐藏单元划分为共享单元和依赖于语言的单元。大量实验表明,我们提出的方法可以在强基线上取得显著的改进。此外,我们的策略可以实现与单独训练的翻译模型相当甚至更好的性能。
选集ID:
D18-1326号
体积:
2018年自然语言处理实证方法会议记录
月份:
10月-11月
年份:
2018
地址:
比利时布鲁塞尔
编辑:
埃伦·里洛夫,大卫·蒋,朱莉娅·霍肯迈尔,Jun’ichi Tsujii先生
地点:
EMNLP公司
SIG公司:
SIGDAT公司
出版商:
计算语言学协会
注:
页:
2955–2960
语言:
网址:
https://acl选集.org/D18-1326
内政部:
10.18653/v1/D18-1326
双钥匙:
引用(ACL):
王以宁、张佳军、翟飞飞、徐静芳、宗成庆。2018提高一对多多语言翻译的三种策略.英寸2018年自然语言处理实证方法大会论文集,第2955–2960页,比利时布鲁塞尔。计算语言学协会。
引用(非正式):
提高一对多多语言翻译的三种策略(Wang等人,EMNLP 2018)
复制引文:
PDF格式:
https://aclantology.org/D18-1326.pdf