@正在进行{pham-etal-2017试剂盒,title=“2017年{IWSLT}的{KIT}{'}多语言神经机器翻译系统”,author=“Pham、Ngoc Quan和斯珀伯、马提亚斯和Salesky、Elizabeth和哈,Thanh-Le和Niehues、Jan和亚历山大·威贝尔”,editor=“Sakti、Sakriani和马绍·尤蒂亚马“,booktitle=“第十四届国际口语翻译会议记录”,月=12月#“14-15”,year=“2017”,address=“日本东京”,publisher=“国际口语翻译研讨会”,url=“https://aclantology.org/2017.iwslt-1.6",pages=“42-47”,abstract=“在本文中,我们为IWSLT 2017评估活动机器翻译(MT)和口语翻译(SLT)提供了KIT的多语言神经机器翻译(NMT)系统任务。对于机器翻译任务提交,我们使用了我们的多任务系统,该系统是从标准注意力神经机器翻译框架修改而来的,而不是构建20个单独的NMT系统。在训练这样一个多语言系统时,我们研究了不同的体系结构以及不同的数据语料库。我们还为多语言系统提出了一种有效的自适应方案,与单语系统相比,该方案带来了很大的改进。对于SLT轨迹,除了在训练我们的多语言系统之前用于生成正确标点和数据真实案例的单语神经翻译系统外,我们还引入了噪声模型,以使我们的系统更加健壮。结果表明,我们的新修改在所有任务中都大大改进了我们的系统。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“pham-etal-2017-kits”><标题信息>2017年IWSLT KIT的多语言神经机器翻译系统</titleInfo><name type=“personal”>Ngoc-Quan范文<角色>作者</角色></name><name type=“personal”>马提亚斯Sperber公司<角色>作者</角色></name><name type=“personal”>伊丽莎白Salesky公司<角色>作者</角色></name><name type=“personal”><namePart type=“given”>Thanh-Le</namePart><namePart type=“family”>哈<角色>作者</角色></name><name type=“personal”>一月尼胡斯<角色>作者</角色></name><name type=“personal”><namePart type=“given”>Alexander</namePart>亚历山大</namePart韦贝尔<角色>作者</角色></name><originInfo>2017年12月14日至15日发布</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第十四届国际口语翻译会议记录</titleInfo><name type=“personal”>萨基里亚尼语<namePart type=“family”>Sakti</namePart><角色>编辑器</角色></name><name type=“personal”>MasaoUtiyama<角色>编辑器</角色></name><originInfo><publisher>国际口语翻译研讨会<位置>日本东京</place></originInfo>会议出版物</relatedItem><摘要>在本文中,我们为IWSLT 2017评估活动机器翻译(MT)和口语翻译(SLT)任务介绍了KIT的多语言神经机器翻译(NMT)系统。对于机器翻译任务提交,我们使用了我们的多任务系统,该系统是从标准注意力神经机器翻译框架修改而来的,而不是构建20个单独的NMT系统。在训练这样一个多语言系统时,我们研究了不同的体系结构以及不同的数据语料库。我们还为多语言系统提出了一种有效的自适应方案,与单语系统相比,该方案带来了很大的改进。对于SLT轨迹,除了一个单语神经翻译系统用于在训练我们的多语言系统之前生成正确的标点符号和数据的真实案例外,我们还引入了一个噪声模型,以使我们的系统更加健壮。结果表明,我们的新修改在所有任务中都大大改进了我们的系统</摘要>pham-etal-2017试剂盒<位置><网址>https://aclantology.org/2017.iwslt-1.6</url></位置><部分>2017年12月14日至15日<扩展单元=“page”><开始>42</开始><end>47</范围></部分></mods></modsCollection>
%0会议记录%T KIT 2017年IWSLT的多语言神经机器翻译系统%阿范,Ngoc-Quan%A Sperber,马提亚斯%伊丽莎白·A Salesky%阿哈,Thanh-Le%A Niehues,简%亚历山大·威贝尔%Y Sakti、Sakriani%马绍·尤蒂亚马%第十四届国际口语翻译会议论文集%2017年4月%2014年12月8日15%国际口语翻译研讨会%C日本东京%F pham-etal-2017试剂盒%X在本文中,我们为IWSLT 2017评估活动机器翻译(MT)和口语翻译(SLT)任务介绍了KIT的多语言神经机器翻译(NMT)系统。对于机器翻译任务提交,我们使用了我们的多任务系统,该系统是从标准注意力神经机器翻译框架修改而来的,而不是构建20个单独的NMT系统。在训练这样一个多语言系统时,我们研究了不同的体系结构以及不同的数据语料库。我们还为多语言系统提出了一种有效的自适应方案,与单语系统相比,该方案带来了很大的改进。对于SLT轨迹,除了在训练我们的多语言系统之前用于生成正确标点和数据真实案例的单语神经翻译系统外,我们还引入了噪声模型,以使我们的系统更加健壮。结果表明,我们的新修改在所有任务中都大大改进了我们的系统。%U型https://aclantology.org/2017.iwslt-1.6%第42-47页
降价(非正式)
【KIT 2017年IWSLT的多语言神经机器翻译系统】(https://aclantology.org/2017.iwslt-1.6)(Pham等人,IWSLT 2017)
国际计算语言学协会
- Ngoc-Quan Pham、Matthias Sperber、Elizabeth Salesky、Thanh-Le Ha、Jan Niehues和Alexander Waibel。20172017年IWSLT KIT的多语言神经机器翻译系统.英寸第十四届国际口语翻译会议记录,第42-47页,日本东京。国际口语翻译研讨会。