@进行中{周-塔尔-2018年大规模,title=“低资源目标语言翻译中的大规模并行跨语言学习”,author=“周、钟和斯珀伯、马提亚斯和亚历山大·威贝尔”,editor=“Bojar,Ond{\v{r}}ej和Chatterjee、Rajen和费德曼,克里斯蒂安和费舍尔、马克和格雷厄姆、伊维特和哈多、巴里和哈克、马提亚斯和是的,安东尼奥·吉梅诺和Koehn、Philipp和蒙兹、克里斯托夫和Negri、Matteo和N{\'e}v{\'e}ol,Aur{\e}谎言和内维斯、玛丽安娜和Post、Matt和Specia、Lucia和图尔奇、马尔科和卡琳·弗斯普尔”,booktitle=“第三届机器翻译会议论文集:研究论文”,月=10月,year=“2018”,address=“比利时布鲁塞尔”,publisher=“计算语言学协会”,url=“https://aclantology.org/W18-6324”,doi=“10.18653/v1/W18-6324”,pages=“232--243”,抽象=“我们致力于从丰富资源语言到低资源语言的翻译。我们发现的主要挑战是缺乏低资源语言数据、有效的跨语言迁移方法以及神经系统中常见的变量绑定问题。我们构建了一个翻译系统,使用八个欧洲国家的翻译系统来解决这些挑战一个语系作为我们的试验场。首先,我们添加来源和目标家庭标签,研究家庭内和家庭间对有效跨语言迁移的影响。与单族多源多目标基线相比,我们使用八个族实现了英语-西班牙语翻译的BLEU分数提高了+9.9。此外,我们发现,对最接近低资源语言的两个相邻家庭进行培训通常就足够了。其次,我们构建了一个消融研究,发现即使目标数据少得多,也可以获得相当好的结果。第三,我们通过建立一个订单提供服务的命名实体翻译模型来解决变量绑定问题。在初步研究中,我们获得了60.6{\%}的定性评估准确性,其中我们的翻译与人类翻译相似。",}
<?xml版本=“1.0”编码=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“zhou-etal-2018-massively”><标题信息>低资源目标语言翻译中的大规模并行跨语言学习</titleInfo><name type=“personal”><namePart type=“given”>钟<namePart type=“family”>周<角色>作者</角色></name><name type=“personal”><namePart type=“given”>Matthias</namePart>Sperber公司<角色>作者</角色></name><name type=“personal”>亚历山大韦贝尔<角色>作者</角色></name><originInfo>2018-10发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第三届机器翻译会议论文集:研究论文</titleInfo><name type=“personal”>Ondřej博加尔<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>Rajen</namePart>查特吉<角色>编辑器</角色></name><name type=“personal”>克里斯蒂安费德曼<角色>编辑器</角色></name><name type=“personal”>标记费舍尔<角色>编辑器</角色></name><name type=“personal”>Yvette(伊维特)格雷厄姆<角色>编辑器</角色></name><name type=“personal”>巴里哈多<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>Matthias</namePart>哈克<角色>编辑器</角色></name><name type=“personal”>安东尼奥Jimeno是的<角色>编辑器</角色></name><name type=“personal”>飞利浦科恩<角色>编辑器</角色></name><name type=“personal”>克里斯托夫蒙兹<角色>编辑器</角色></name><name type=“personal”>马蒂奥Negri(奈格里)<角色>编辑器</角色></name><name type=“personal”>奥雷利内维尔<角色>编辑器</角色></name><name type=“personal”>玛丽安娜内维斯<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>马特帖子<角色>编辑器</角色></name><name type=“personal”>露西娅Specia系列<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>马可<namePart type=“family”>图尔奇</namePart><角色>编辑器</角色></name><name type=“personal”>卡琳Verspoor公司<角色>编辑器</角色></name><originInfo><publisher>计算语言学协会</publisher><位置>比利时布鲁塞尔</地点></originInfo>会议出版物</relatedItem><摘要>我们致力于从丰富资源语言到低资源语言的翻译。我们发现的主要挑战是缺乏低资源的语言数据、有效的跨语言迁移方法以及神经系统中常见的变量绑定问题。我们建立了一个翻译系统,以八个欧洲语系作为我们的测试场地,来应对这些挑战。首先,我们添加来源和目标家庭标签,研究家庭内和家庭间对有效跨语言迁移的影响。与单族多源多目标基线相比,我们使用八个族实现了英语-西班牙语翻译的BLEU分数提高了+9.9。此外,我们发现,对两个最接近低资源语言的相邻家庭进行培训往往就足够了。其次,我们进行了消融研究,发现即使目标数据少得多,也可以获得相当好的结果。第三,我们通过建立一个订单提供服务的命名实体翻译模型来解决变量绑定问题。在初步研究中,我们获得了60.6%的定性评估准确率,其中我们的翻译与人类翻译相似</摘要>2018年周星驰10.18653/v1/W18-6324<位置><网址>https://aclantology.org/W18-6324</url></位置><部分>2018-10年<扩展单元=“page”><开始>232<end>243</end></范围></部分></mods></modsCollection>
%0会议记录%低资源目标语言翻译中的大规模并行跨语言学习%阿周,钟%A Sperber,马提亚斯%亚历山大·威贝尔%Y Bojar,Ondřej%拉金·查特吉%Y Federmann,克里斯蒂安%Y Fishel,马克%伊维特·Y·格雷厄姆%巴里·Y·哈多%Y哈克,马提亚斯%Y Yepes,安东尼奥·吉梅诺%Y Koehn,菲利普%克里斯托夫·蒙兹%Y Negri,马蒂奥%奥雷利·Y·内维尔%玛丽亚娜·尼维斯%Y Post,马特%露西娅·Y·斯佩西亚%马可·Y·图奇%Y Verspoor,卡琳%第三届机器翻译会议论文集:研究论文%2018年D月%10月8日%计算语言学协会%C比利时布鲁塞尔%Fzhou-etal-2018-大规模%我们致力于从丰富资源语言到低资源语言的翻译。我们发现的主要挑战是缺乏低资源的语言数据、有效的跨语言迁移方法以及神经系统中常见的变量绑定问题。我们建立了一个翻译系统,以八个欧洲语系作为我们的测试场地,来应对这些挑战。首先,我们添加来源和目标家庭标签,研究家庭内和家庭间对有效跨语言迁移的影响。与单族多源多目标基线相比,我们使用八个族实现了英语-西班牙语翻译的BLEU分数提高了+9.9。此外,我们发现,对最接近低资源语言的两个相邻家庭进行培训通常就足够了。其次,我们构建了一个消融研究,发现即使目标数据少得多,也可以获得相当好的结果。第三,我们通过建立一个订单提供服务的命名实体翻译模型来解决变量绑定问题。在初步研究中,我们获得了60.6%的定性评估准确率,其中我们的翻译与人类翻译相似。%10.18653/v1/W18-6324兰特%U型https://aclantology.org/W18-6324%U型https://doi.org/10.18653/v1/W18-6324%电话232-243
降价(非正式)
【低资源目标语言翻译中的大规模并行跨语言学习】(https://aclantology.org/W18-6324)(周等人,WMT 2018)
国际计算语言学协会