@在制品{muller-etal-2018-large,title=“神经机器翻译中上下文代词翻译评估的大尺度测试集”,author={M{\“u}ller,Mathias和里奥斯、安妮特和Voita、Elena和里科·森里奇,editor=“Bojar,Ond{\v{r}}ej和查特吉、拉金和费德曼、克里斯蒂安和费舍尔、马克和格雷厄姆、伊维特和哈多、巴里和哈克、马提亚斯和是的,安东尼奥·吉梅诺和Koehn、Philipp和蒙兹、克里斯托夫和Negri、Matteo和N{\'e}v{\'e}ol,Aur{\e}谎言和内维斯、玛丽安娜和Post、Matt和Specia、Lucia和图尔奇、马尔科和卡琳·弗斯普尔”,booktitle=“第三届机器翻译会议论文集:研究论文”,月=10月,year=“2018”,address=“比利时布鲁塞尔”,publisher=“计算语言学协会”,url=“https://aclantology.org/W18-6307”,doi=“10.18653/v1/W18-6307”,pages=“61--72”,摘要=“代词的翻译对今天的机器翻译来说是一个特殊的挑战,因为它通常需要当前句子之外的上下文。最近关于跨句子边界访问信息的模型的工作在自动评估指标(如BLEU)方面只有适度的改进。然而量化整体翻译质量不足以衡量从附加语境中获得的收益。我们认为,需要一种不同的评估来评估模型翻译代词等语义间现象的效果。因此,本文提出了一套专门针对代词翻译的对比翻译测试。此外,我们用几个上下文软件模型进行了实验。我们表明,尽管这些系统的BLEU增益适中,但在对比测试集上,它们的准确度远远优于基线。我们的实验还表明了多编码器体系结构参数绑定的有效性。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“网址:http://www.loc.gov/mods/v3"><mods ID=“muller-etal-2018-large”><标题信息>神经机器翻译中上下文代词翻译评估的大规模测试集</titleInfo><name type=“personal”>马蒂亚斯<namePart type=“family”>米勒</namePart><角色>作者</角色></name><name type=“personal”>安妮特里奥斯<角色>作者</角色></name><name type=“personal”>Elena(Elena)Voita公司<角色>作者</角色></name><name type=“personal”>Rico(Rico)Sennrich<角色>作者</角色></name><originInfo>2018-10发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息><title=第三届机器翻译大会论文集:研究论文</title=</titleInfo><name type=“personal”><namePart type=“给定”>Ondřej</namePart>博加尔<角色>编辑器</角色></name><name type=“personal”>拉詹查特吉<角色>编辑器</角色></name><name type=“personal”>克里斯蒂安费德曼<角色>编辑器</角色></name><name type=“personal”>标记费舍尔<角色>编辑器</角色></name><name type=“personal”>Yvette(伊维特)格雷厄姆<角色>编辑器</角色></name><name type=“personal”>巴里哈多<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>Matthias</namePart>哈克<角色>编辑器</角色></name><name type=“personal”>安东尼奥Jimeno是的<角色>编辑器</角色></name><name type=“personal”>飞利浦科恩<角色>编辑器</角色></name><name type=“personal”>克里斯托夫蒙兹<角色>编辑器</角色></name><name type=“personal”>马蒂奥Negri(奈格里)<角色>编辑器</角色></name><name type=“personal”>奥雷利内维尔<角色>编辑器</角色></name><name type=“personal”>玛丽安娜内维斯<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>马特帖子<角色>编辑器</角色></name><name type=“personal”>露西娅Specia系列<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>马可图尔奇<namePart type=“family”><角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>卡琳</namePart>Verspoor公司<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>比利时布鲁塞尔</地点></originInfo>会议出版物</relatedItem>代词的翻译对今天的机器翻译来说是一个特殊的挑战,因为它经常需要当前句子之外的上下文。最近关于跨句子边界访问信息的模型的工作,在自动评估指标(如BLEU)方面只有适度的改进。然而,量化整体翻译质量的指标不足以衡量额外语境带来的收益。我们认为,需要一种不同的评估来评估模型翻译代词等语义间现象的效果。因此,本文提出了一套专门针对代词翻译的对比翻译测试。此外,我们用几个上下文软件模型进行了实验。我们表明,尽管这些系统的BLEU增益适中,但在对比测试集上,它们的准确度远远优于基线。我们的实验还表明了多编码器体系结构参数绑定的有效性</摘要>穆勒-塔尔-2018-large10.18653/v1/W18-6307<位置><网址>https://aclantology.org/W18-6307</url></位置><部分>2018-10年<扩展单元=“page”><开始>61<end>72</范围></部分></mods></modsCollection>
%0会议记录%神经机器翻译中上下文代词翻译的大规模测试集%马蒂亚斯·米勒%安妮特·里奥斯%A Voita,埃琳娜%A Sennrich,里科%Y Bojar,Ondřej%拉金·查特吉%Y Federmann,克里斯蒂安%Y Fishel,马克%伊维特·Y·格雷厄姆%巴里·Y·哈多%Y哈克,马提亚斯%Y Yepes,安东尼奥·吉梅诺%Y Koehn,菲利普%克里斯托夫·蒙兹%Y Negri,马蒂奥%奥雷利·Y·内维尔%玛丽亚娜·尼维斯%Y Post,马特%露西娅·Y·斯佩西亚%马可·Y·图奇%Y Verspoor,卡琳%第三届机器翻译会议论文集:研究论文%2018年D月%10月8日%计算语言学协会%C比利时布鲁塞尔%F muller-etal-2018-大型%代词的翻译对今天的机器翻译来说是一个特殊的挑战,因为它经常需要当前句子之外的上下文。最近关于跨句子边界访问信息的模型的工作,在自动评估指标(如BLEU)方面只有适度的改进。然而,量化整体翻译质量的指标不足以衡量额外语境带来的收益。我们认为,需要一种不同的评估来评估模型翻译代词等语义间现象的效果。因此,本文提出了一套专门针对代词翻译的对比翻译测试。此外,我们用几个上下文软件模型进行了实验。我们表明,尽管这些系统的BLEU增益适中,但在对比测试集上,它们的准确度远远优于基线。我们的实验还表明了多编码器体系结构参数绑定的有效性。%10.18653/v1/W18-6307兰特%U型https://aclantology.org/W18-6307%U型https://doi.org/10.18653/v1/W18-6307%电话61-72
降价(非正式)
【神经机器翻译中上下文代词翻译评估的大规模测试集】(https://aclantology.org/W18-6307)(缪勒等人,WMT 2018)
辅助控制线
- Mathias Müller、Annette Rios、Elena Voita和Rico Sennrich。2018神经机器翻译中上下文代词翻译的大规模测试集.英寸第三届机器翻译会议记录:研究论文,第61-72页,比利时布鲁塞尔。计算语言学协会。