@进行中{zhang-etal-2020-改进,title=“改进大规模多语言神经机器翻译和零镜头翻译”,author=“张彪威廉姆斯、菲利普和蒂托夫、伊凡和里科·森里奇“,editor=“朱拉夫斯基、丹和Chai、Joyce和Schluter、Natalie和Joel Tetreault“,booktitle=“计算语言学协会第58届年会会议记录”,月=七月,年=“2020”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclantology.org/2020.acl-main.148”,doi=“10.18653/v1/2020.acl-main.148”,pages=“1628--1639”,abstract=“神经机器翻译(NMT)的大规模多语言模型理论上很有吸引力,但往往表现不佳的双语模式和零快照翻译。在本文中,我们探讨了改进它们的方法。我们认为,多语言NMT需要更强的建模能力来支持具有不同类型特征的语言对,并通过特定于语言的组件和深化NMT架构来克服这一瓶颈。我们确定了非目标翻译问题(即翻译成错误的目标语言)是低劣零快照性能的主要来源,并提出了随机在线反译来强制执行看不见的训练语言对的翻译。在OPUS-100(一种包含100种语言的新型多语言数据集)上的实验表明,我们的方法在一对多和多对多设置中大大缩小了与双语模型的性能差距,并通过{\textascitiilde}10 BLEU提高了零射击性能,接近于传统的基于枢轴的方法。",}
<?xml版本=“1.0”编码=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“zhang-etal-2020改进”><标题信息>改进大规模多语言神经机器翻译和零镜头翻译</titleInfo><name type=“personal”><namePart type=“given”>彪<namePart type=“family”>张<角色>作者</角色></name><name type=“personal”>菲利普威廉姆斯<角色>作者</角色></name><name type=“personal”>伊凡蒂托夫<角色>作者</角色></name><name type=“personal”>Rico(Rico)Sennrich<角色>作者</角色></name><originInfo>发布日期:2020-07发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会第58届年会会议记录</titleInfo><name type=“personal”>丹<namePart type=“family”>尤拉夫斯基</namePart><角色>编辑器</角色></name><name type=“personal”>乔伊斯Chai(Chai)<角色>编辑器</角色></name><name type=“personal”>娜塔莉Schluter公司<角色>编辑器</角色></name><name type=“personal”>乔尔Tetreault公司<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线</place></originInfo>会议出版物</relatedItem>神经机器翻译(NMT)的大规模多语言模型在理论上很有吸引力,但通常表现不如双语模型,并且提供较差的零快照翻译。在本文中,我们探讨了改进它们的方法。我们认为,多语言NMT需要更强的建模能力来支持具有不同类型特征的语言对,并通过特定于语言的组件和深化NMT架构来克服这一瓶颈。我们确定了非目标翻译问题(即翻译成错误的目标语言)是低劣零快照性能的主要来源,并提出了随机在线反译来强制执行看不见的训练语言对的翻译。在OPUS-100(一种具有100种语言的新型多语言数据集)上的实验表明,我们的方法大大缩小了双语模型在一对多和多对多设置下的性能差距,并通过约10个BLEU提高了零快照性能,接近于传统的基于枢轴的方法</摘要>zhang-etal-2020改进10.18653/v1/2020。acl-main.148<位置><网址>https://acl选集.org/2020.acl-main.148</url></位置><部分><日期>2020-07</日期><扩展单元=“page”><开始>16281639年</范围></部分></mods></modsCollection>
%0会议记录%T改进大规模多语言神经机器翻译和零镜头翻译%张彪%菲利普·威廉姆斯%伊凡·蒂托夫%A Sennrich,里科%Y朱拉夫斯基,丹%乔伊斯·蔡%Y Schluter,娜塔莉%乔尔·特特劳特%计算语言学协会第58届年会论文集%D 2020年%7月8日%计算语言学协会%C在线%F zhang-etal-2020改进%X神经机器翻译(NMT)的大规模多语言模型在理论上很有吸引力,但通常表现不如双语模型,并且提供的零快照翻译也很差。在本文中,我们探讨了改进它们的方法。我们认为,多语言NMT需要更强的建模能力来支持具有不同类型特征的语言对,并通过特定于语言的组件和深化NMT架构来克服这一瓶颈。我们确定了非目标翻译问题(即翻译成错误的目标语言)是低劣零快照性能的主要来源,并提出了随机在线反译来强制执行看不见的训练语言对的翻译。在OPUS-100(一种具有100种语言的新型多语言数据集)上的实验表明,我们的方法大大缩小了双语模型在一对多和多对多设置下的性能差距,并通过约10个BLEU提高了零快照性能,接近于传统的基于枢轴的方法。%R 10.18653/v1/2020.acl-main.148%U型https://aclantology.org/2020.acl-main.148%U型https://doi.org/10.18653/v1/2020.acl-main.148%电话:1628-1639
降价(非正式)
[改进大规模多语言神经机器翻译和零镜头翻译](https://aclantology.org/2020.acl-main.148)(Zhang等人,ACL 2020)
国际计算语言学协会
- 张彪(Biao Zhang)、菲利普·威廉姆斯(Philip Williams)、伊万·蒂托夫(Ivan Titov)和里科·森里奇(Rico Sennrich)。2020改进大规模多语言神经机器翻译和零镜头翻译.英寸计算语言学协会第58届年会会议记录,第1628–1639页,在线。计算语言学协会。