@正在进行{yu-etal-2021-hw,title=“{硬件}-{TSC}{'}参与{WMT}2021大型多语翻译任务”,author=“余、郑哲和Wei、Daimeng和李宗耀和尚、恒超和陈晓宇和Wu、Zhanglin和郭嘉欣和王明翰和雷、立志和张敏和Yang、Hao和秦,英“,editor=“Barrault、Loic和Bojar、Ondrej和布加尔、费蒂和Chatterjee、Rajen和Costa-jussa、Marta R.和费德曼、克里斯蒂安和费舍尔、马克和弗雷泽、亚历山大和弗雷塔格、马库斯和格雷厄姆、伊维特和Grundkiewicz、Roman和古兹曼、帕科和哈多、巴里和哈克、马提亚斯和是的,安东尼奥·吉梅诺和Koehn、Philipp和科米、汤姆和马丁斯、安德烈和Morishita、Makoto和蒙兹,克里斯托夫“,booktitle=“第六届机器翻译会议记录”,月=11月,年=“2021”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclantology.org/2021.wmt-1.55",pages=“456--463”,abstract=“本文介绍了华为翻译服务中心(HW-TSC)向WMT 2021大型多语言翻译任务提交的报告。我们参加了Samll Track{#}2,包括6种语言:爪哇语(Jv)、印尼语(Id)、马来语(Ms)、塔加路语(Tl)、泰米尔语(Ta)和英语(En)约束条件下30个方向。我们使用Transformer架构,并通过具有较大参数的多个变量获得最佳性能。我们训练一个单一的多语言模型来翻译所有30个方向。我们对提供的大规模双语和单语数据集进行详细的预处理和过滤。我们使用了几种常用的策略来训练模型,例如反向翻译、正向翻译、集成知识提取、适配器微调。我们的模型最终取得了具有竞争力的结果。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“yu-etal-2021-hw”><标题信息>HW-TSC参与WMT 2021大型多语言翻译任务</titleInfo><name type=“personal”>郑哲<namePart type=“family”>余</namePart><角色>作者</角色></name><name type=“personal”><namePart type=“given”>代蒙魏<namePart type=“family”><角色>作者</角色></name><name type=“personal”>宗耀李<namePart type=“family”><角色>作者</角色></name><name type=“personal”>恒超尚<角色>作者</角色></name><name type=“personal”>小雨<namePart type=“given”><namePart type=“family”>陈</namePart><角色>作者</角色></name><name type=“personal”>张琳吴<角色>作者</角色></name><name type=“personal”><namePart type=“given”>嘉信</namePart>郭<namePart type=“family”><角色>作者</角色></name><name type=“personal”>明翰<namePart type=“given”>王<namePart type=“family”><角色>作者</角色></name><name type=“personal”>李芝雷<namePart type=“family”><角色>作者</角色></name><name type=“personal”>最小值<namePart type=“family”>张<角色>作者</角色></name><name type=“personal”>郝(音译)杨<角色>作者</角色></name><name type=“personal”>应<namePart type=“family”>秦</namePart><角色>作者</角色></name><originInfo>发布日期:2021-11发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第六届机器翻译会议记录</titleInfo><name type=“personal”>洛伊克<namePart type=“family”>突击队</namePart><角色>编辑器</角色></name><name type=“personal”>Ondrej博加尔<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>Fethi</namePart>费提</namePart布加尔<角色>编辑器</角色></name><name type=“personal”>拉詹查特吉<角色>编辑器</角色></name><name type=“personal”>玛尔塔<namePart type=“given”>R</namePart>Costa-jussa公司<角色>编辑器</角色></name><name type=“personal”>克里斯蒂安费德曼<角色>编辑器</角色></name><name type=“personal”>标记费舍尔<角色>编辑器</角色></name><name type=“personal”>亚历山大弗雷泽<角色>编辑器</角色></name><name type=“personal”>马库斯弗雷塔格<角色>编辑器</角色></name><name type=“personal”>Yvette(伊维特)格雷厄姆<角色>编辑器</角色></name><name type=“personal”>罗马语格兰基维奇<角色>编辑器</角色></name><name type=“personal”>Paco公司古兹曼<角色>编辑器</角色></name><name type=“personal”>巴里哈多<角色>编辑器</角色></name><name type=“personal”>马提亚斯哈克<角色>编辑器</角色></name><name type=“personal”>安东尼奥Jimeno<namePart type=“family”>Yepes</namePart>叶类<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>Philipp</namePart>科恩<角色>编辑器</角色></name><name type=“personal”>汤姆科克米<角色>编辑器</角色></name><name type=“personal”>安德烈马丁斯<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>Makoto<namePart type=“family”>森下</namePart><角色>编辑器</角色></name><name type=“personal”>克里斯托夫<namePart type=“family”>蒙兹</namePart><角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线</place></originInfo>会议出版物</relatedItem>本文介绍了华为翻译服务中心(HW-TSC)提交给WMT 2021大型多语言翻译任务的情况。我们参加了Samll Track#2,包括6种语言:爪哇语(Jv)、印尼语(Id)、马来语(Ms)、塔加路语(Tl)、泰米尔语(Ta)和英语(En),在受限条件下有30个方向。我们使用Transformer架构,并通过具有较大参数的多个变量获得最佳性能。我们训练一个单一的多语言模型来翻译所有30个方向。我们对提供的大规模双语和单语数据集进行详细的预处理和过滤。我们使用了几种常用的策略来训练模型,例如反向翻译、正向翻译、集成知识提取、适配器微调。我们的模型最终取得了具有竞争力的结果</摘要>yu-etal-2021-hw<位置><网址>https://aclantology.org/2021.wmt-1.55</url></位置><部分>2021-11年<扩展单元=“page”><开始>456<end>463</范围></部分></mods></modsCollection>
%0会议记录%T HW-TSC参与WMT 2021大型多语言翻译任务%阿玉、郑哲%阿伟、戴蒙%阿丽,宗耀%阿尚、恒超%A Chen、Xiaoyu%吴阿章%嘉兴阿果%A Wang、Minghan%阿蕾,利智%阿章,敏%阿阳,郝%阿琴,英%洛伊克·巴罗%Ondrej,Y Bojar%Y Bougares,费蒂%拉金·查特吉%Y Costa-jussa,Marta R。%Y Federmann,克里斯蒂安%Y Fishel,马克%亚历山大·弗雷泽%Y Freitag,马库斯%伊维特·Y·格雷厄姆%Y Grundkiewicz,罗马人%帕科·Y·古兹曼%巴里·Y·哈多%Y哈克,马提亚斯%Y Yepes,安东尼奥·吉梅诺%Y Koehn,菲利普%Y Kocmi,汤姆%安德烈·马丁斯%Y Morishita,Makoto公司%克里斯托夫·蒙兹%第六届机器翻译会议论文集%D 2021年%11月8日%计算语言学协会%C在线%Fyu-etal-2021-hw%本文介绍了华为翻译服务中心(HW-TSC)向WMT 2021大型多语言翻译任务提交的文件。我们参加了Samll Track#2,包括6种语言:爪哇语(Jv)、印尼语(Id)、马来语(Ms)、塔加路语(Tl)、泰米尔语(Ta)和英语(En),在受限条件下有30个方向。我们使用Transformer架构,并通过具有较大参数的多个变量获得最佳性能。我们训练一个单一的多语言模型来翻译所有30个方向。我们对提供的大规模双语和单语数据集进行了详细的预处理和过滤。我们使用了几种常用的策略来训练模型,例如反向翻译、正向翻译、集成知识提取、适配器微调。我们的模型最终取得了具有竞争力的结果。%U型https://aclantology.org/2021.wmt-1.55%电话:456-463
降价(非正式)
【HW-TSC参与WMT 2021大型多语言翻译任务】(https://aclantology.org/2021.wmt-1.55)(Yu等人,WMT 2021)
国际计算语言学协会