@正在进行{pylypenko-rubino-2018-dfki,title=“{DFKI}-{MLT}{WMT}18自动编辑后任务的系统描述”,author=“Pylypenko、Daria和拉斐尔·鲁比诺“,editor=“Bojar,Ond{\v{r}}ej和Chatterjee、Rajen和费德曼、克里斯蒂安和费舍尔、马克和格雷厄姆、伊维特和哈多、巴里和哈克、马蒂亚斯和是的,安东尼奥·吉梅诺和Koehn、Philipp和蒙兹、克里斯托夫和Negri、Matteo和N{\'e}v{\'e}ol,Aur{\e}谎言和内维斯、玛丽安娜和Post、Matt和Specia、Lucia和图尔奇、马尔科和卡琳·弗斯普尔”,booktitle=“第三届机器翻译会议论文集:共享任务文件”,月=10月,年份=“2018”,address=“比利时,布鲁塞尔”,publisher=“计算语言学协会”,url=“https://aclantology.org/W18-6469”,doi=“10.18653/v1/W18-6469”,pages=“836--839”,abstract=“本文介绍了DFKI-MLT小组提交给WMT的自动后期编辑(APE)系统{'}18 APE共享任务。三个单语神经序列到序列APE系统仅使用目标语言数据进行训练:一个使用注意递归神经网络结构,另一个使用只注意(textit{transformer})结构。训练数据由机器翻译(MT)输出组成,机器翻译输出用作APE模型的源,与人工编辑后的版本或参考翻译作为目标对齐。我们只使用了提供的训练集,并训练了适用于基于短语和神经MT输出的APE模型。结果表明,与递归模型相比,只注意模型取得了更好的性能,在基于短语的机器翻译输出后,与基线相比有显著改善,但在应用于神经机器翻译输出时,性能下降。”,}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“pylypenk-rubino-2018-dfki”><标题信息><title=WMT18自动后期编辑任务的DFKI-MLT系统描述</title=</titleInfo><name type=“personal”>达里亚Pylypenko<角色>作者</角色></name><name type=“personal”>拉斐尔鲁比诺<角色>作者</角色></name><originInfo>2018-10发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第三届机器翻译会议论文集:共享任务文件</titleInfo><name type=“personal”>Ondřej博加尔<角色>编辑器</角色></name><name type=“personal”>拉詹查特吉<角色>编辑器</角色></name><name type=“personal”>克里斯蒂安<namePart type=“family”>费德曼</namePart><角色>编辑器</角色></name><name type=“personal”>标记费舍尔<角色>编辑器</角色></name><name type=“personal”><namePart type=“给定”>Yvette</namePart>格雷厄姆<角色>编辑器</角色></name><name type=“personal”>巴里哈多<角色>编辑器</角色></name><name type=“personal”>马提亚斯哈克<角色>编辑器</角色></name><name type=“personal”>安东尼奥Jimeno是的<角色>编辑器</角色></name><name type=“personal”>飞利浦科恩<角色>编辑器</角色></name><name type=“personal”>克里斯托夫蒙兹<角色>编辑器</角色></name><name type=“personal”>马蒂奥Negri(奈格里)<角色>编辑器</角色></name><name type=“personal”>奥雷利内维尔<角色>编辑器</角色></name><name type=“personal”>玛丽安娜内维斯<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>马特帖子<角色>编辑器</角色></name><name type=“personal”>露西娅Specia系列<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>马可图尔奇<namePart type=“family”><角色>编辑器</角色></name><name type=“personal”>卡琳Verspoor公司<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>比利时、布鲁塞尔</地点></originInfo>会议出版物</relatedItem>本文介绍了DFKI-MLT小组提交给WMT’18 APE共享任务的自动编辑后(APE)系统。三个单语神经序列到序列APE系统仅使用目标语言数据进行训练:一个使用注意递归神经网络结构,另一个使用只注意(变压器)结构。训练数据由机器翻译(MT)输出组成,机器翻译输出用作APE模型的源,与人工编辑后的版本或参考翻译作为目标对齐。我们只使用了提供的训练集,并训练了适用于基于短语和神经MT输出的APE模型。结果表明,与递归模型相比,只注意模型取得了更好的性能,在基于短语的机器翻译输出后,与基线相比有显著改善,但在应用于神经机器翻译输出时,性能下降</摘要>pylypenko-rubino-2018-dfki10.18653/v1/W18-6469<位置><网址>https://aclantology.org/W18-6469</url></位置><部分>2018-10年<扩展单元=“page”><开始>836</开始><end>839</范围></部分></mods></modsCollection>
%0会议记录%WMT18自动后编辑任务的T DFKI-MLT系统描述%Daria,A Pylypenko%拉斐尔·鲁比诺%Y Bojar,Ondřej%拉金·查特吉%Y Federmann,克里斯蒂安%Y Fishel,马克%伊维特·Y·格雷厄姆%巴里·Y·哈多%Y哈克,马提亚斯%Y Yepes,安东尼奥·吉梅诺%Y Koehn,菲利普%克里斯托夫·蒙兹%Y Negri,马蒂奥%奥雷利·Y·内维尔%玛丽亚娜·尼维斯%Y Post,马特%露西娅·Y·斯佩西亚%马尔科·图尔奇%Y Verspoor,卡琳%第三届机器翻译会议论文集:共享任务文件%2018年D月%10月8日%计算语言学协会%C比利时,布鲁塞尔%F pylypenko-rubino-2018-dfki公司%本文介绍了DFKI-MLT小组提交给WMT’18 APE共享任务的自动后编辑(APE)系统。三个单语神经序列到序列APE系统仅使用目标语言数据进行训练:一个使用注意递归神经网络结构,另一个使用只注意(变压器)结构。训练数据由机器翻译(MT)输出组成,机器翻译输出用作APE模型的源,与人工编辑后的版本或参考翻译作为目标对齐。我们只使用了提供的训练集,并训练了适用于基于短语和神经MT输出的APE模型。结果表明,与递归模型相比,只注意模型取得了更好的性能,在基于短语的机器翻译输出后,与基线相比有显著改善,但在应用于神经机器翻译输出时,性能下降。%10.18653/v1/W18-6469兰特%U型https://aclantology.org/W18-6469%U型https://doi.org/10.18653/v1/W18-6469%电话:836-839
降价(非正式)
[WMT18自动后编辑任务DFKI-MLT系统描述](https://aclantology.org/W18-6469)(Pylypenko&Rubino,WMT 2018)
国际计算语言学协会