@进行中{yang-etal-2020-hw,title=“{硬件}-{TSC}{'}参与{WMT}2020自动后期编辑共享任务”,author=“杨浩王明翰和Wei、Daimeng和尚、恒超和郭嘉欣和李宗耀和Lei、Lizhi和秦、英、陶世民孙世良陈一萌”,editor={Barrault,Lo{\“\i}c和Bojar、Ond{\v{r}}ej和布加尔、费蒂和Chatterjee、Rajen和Costa-juss{\`a},Marta R.和费德曼、克里斯蒂安和费舍尔、马克和弗雷泽、亚历山大和格雷厄姆、伊维特和古兹曼、帕科和哈多、巴里和哈克、马提亚斯和是的,安东尼奥·吉梅诺和Koehn、Philipp和马丁斯、安德烈和Morishita、Makoto和蒙兹、克里斯托夫和长田、Masaaki和Nakazawa、Toshiaki和内格里·马特奥,booktitle=“第五届机器翻译会议记录”,月=11月,年=“2020”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclantology.org/2020.wmt-1.85",pages=“797-802”,抽象=“本文介绍了HW-TSC在WMT 2020自动后期编辑共享任务中提交的文档。我们参与了英语-德语和英语-汉语语言对。我们的系统是基于WMT 2019和WMT 2020新闻翻译语料库中预训练的Transformer构建的,并在APE语料库上进行了微调。瓶颈适配器层是集成的嵌入模型以防止过度拟合。我们进一步收集外部翻译作为增强MT候选,以提高性能。实验表明,当使用有限大小的APE语料库进行微调时,预训练NMT模型是有效的,并且通过外部MT增强可以进一步提高性能。我们的系统在最终评估中在两个方向上都取得了具有竞争力的结果。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“yang-etal-2020-hw”><标题信息>HW-TSC参与WMT 2020自动后期编辑共享任务</title信息><name type=“personal”>郝(音译)杨<角色>作者</角色></name><name type=“personal”>明翰<namePart type=“given”>王<namePart type=“family”><角色>作者</角色></name><name type=“personal”><namePart type=“given”>代蒙魏<namePart type=“family”><角色>作者</角色></name><name type=“personal”>恒超尚<角色>作者</角色></name><name type=“personal”>嘉兴郭<namePart type=“family”><角色>作者</角色></name><name type=“personal”>宗耀李<namePart type=“family”><角色>作者</角色></name><name type=“personal”>李芝雷<namePart type=“family”><角色>作者</角色></name><name type=“personal”>应秦<角色>作者</角色></name><name type=“personal”>Shimin(西蒙)陶(Tao)<角色>作者</角色></name><name type=“personal”>石梁太阳<角色>作者</角色></name><name type=“personal”>沂蒙<namePart type=“given”><namePart type=“family”>陈</namePart><角色>作者</角色></name><originInfo><发布日期>2020-11</发布日期></originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第五届机器翻译会议记录</title信息><name type=“personal”><namePart type=“given”>低成本巴罗<namePart type=“family”>Barrault<角色>编辑器</角色></name><name type=“personal”>Ondřej博加尔<角色>编辑器</角色></name><name type=“personal”>费蒂<namePart type=“family”>购买</namePart><角色>编辑器</角色></name><name type=“personal”>拉詹查特吉<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>玛尔塔</namePart><namePart type=“given”>R</namePart>Costa-jussá<角色>编辑器</角色></name><name type=“personal”>克里斯蒂安费德曼<角色>编辑器</角色></name><name type=“personal”>标记费舍尔<角色>编辑器</角色></name><name type=“personal”>亚历山大弗雷泽<角色>编辑器</角色></name><name type=“personal”>Yvette(伊维特)格雷厄姆<角色>编辑器</角色></name><name type=“personal”>Paco公司古兹曼<角色>编辑器</角色></name><name type=“personal”>巴里哈多<角色>编辑器</角色></name><name type=“personal”>马提亚斯哈克<角色>编辑器</角色></name><name type=“personal”>安东尼奥Jimeno是的<角色>编辑器</角色></name><name type=“personal”>飞利浦科恩<角色>编辑器</角色></name><name type=“personal”>安德烈马丁斯<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>Makoto森田(Morishita)<角色>编辑器</角色></name><name type=“personal”>克里斯托夫<namePart type=“family”>蒙兹</namePart><角色>编辑器</角色></name><name type=“personal”>马萨基长田<角色>编辑器</角色></name><name type=“personal”>Toshiaki中泽<namePart type=“family”><角色>编辑器</角色></name><name type=“personal”>马蒂奥Negri(奈格里)<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线</地点></originInfo>会议出版物</relatedItem><abstract>本文介绍了HW-TSC在WMT 2020自动后期编辑共享任务中提交的内容。我们参加了英语-德语和英语-汉语配对。我们的系统基于WMT 2019和WMT 2020新闻翻译语料库上预训练的Transformer,并在APE语料库中进行微调。瓶颈适配器层集成到模型中,以防止过度安装。我们进一步收集外部翻译作为增强MT候选,以提高性能。实验表明,当使用有限大小的APE语料库进行微调时,预训练NMT模型是有效的,并且通过外部MT增强可以进一步提高性能。我们的系统在最终评估中在两个方向上都取得了具有竞争力的结果</摘要><identifier type=“citekey”>yang-etal-2020-hw<位置><网址>https://aclantology.org/2020.wmt-1.85</url></位置><部分><日期>2020-11</date><扩展单元=“page”><开始>797</开始>802</范围></部分></mods></modsCollection>
%0会议记录%T HW-TSC参与WMT 2020自动后期编辑共享任务%阿阳,郝%A Wang、Minghan%阿伟、戴蒙%阿尚、恒超%嘉兴阿果%阿丽,宗耀%李芝,A Lei%阿琴,英%阿涛、石敏%阿孙、石梁%A Chen、Yimeng%罗伊奇Y Barrault%Y Bojar,Ondřej%Y Bougares,费蒂%拉金·查特吉%Y Costa-jussá,Marta R。%Y Federmann,克里斯蒂安%Y Fishel,马克%亚历山大·弗雷泽%伊维特·Y·格雷厄姆%帕科·Y·古兹曼%巴里·Y·哈多%Y哈克,马提亚斯%Y Yepes,安东尼奥·吉梅诺%菲利普·科恩%安德烈·马丁斯%Y Morishita,Makoto公司%克里斯托夫·蒙兹%Y长田,Masaaki%Y Nakazawa,Toshiaki先生%Y Negri,马蒂奥%第五届机器翻译会议论文集%D 2020年%11月8日%计算语言学协会%C在线%F阳光-2020-hw%X本文介绍了HW-TSC在WMT 2020自动后期编辑共享任务中提交的文件。我们参加了英语-德语和英语-汉语配对。我们的系统基于WMT 2019和WMT 2020新闻翻译语料库上预训练的Transformer,并在APE语料库中进行微调。瓶颈适配器层集成到模型中以防止过度拟合。我们进一步收集外部翻译作为增强MT候选,以提高性能。实验表明,当使用有限大小的APE语料库进行微调时,预训练NMT模型是有效的,并且通过外部MT增强可以进一步提高性能。我们的系统在最终评估中在两个方向上都取得了具有竞争力的结果。%U型https://aclantology.org/2020.wmt-1.85%电话797-802
降价(非正式)
【HW-TSC参与WMT 2020自动后期编辑共享任务】(https://aclantology.org/2020.wmt-1.85)(Yang等人,WMT 2020)
国际计算语言学协会