这个U型大学E类丁堡的E类英语-T型阿米尔和E类英语-nuktitut提交给WMT公司20新闻翻译任务

雷切尔·鲍登,亚历山大·伯奇,拉迪娜·多布雷瓦,阿图罗·昂塞维,安东尼奥·瓦莱里奥·米切利·巴龙,菲利普·威廉姆斯


摘要
我们描述了爱丁堡大学提交给WMT20新闻翻译共享任务的低资源语言对English-Tamil和中资源语言对English-Inuktitut的报告。我们对所有提交文件使用神经机器翻译转换器架构,并探索各种技术来提高翻译质量,以弥补并行训练数据的不足。对于资源非常少的英语教学,这包括探索预训练、使用语言模型目标和使用不相关的高资源语言对(德语-英语)进行翻译,以及迭代回译。对于English-Inuktitut,我们探讨了多语言系统的使用,尽管它不是主要提交内容的一部分,但在测试集上会取得最佳结果。
选集ID:
2020年,wmt-1.5
体积:
第五届机器翻译会议记录
月份:
十一月
年份:
2020
地址:
在线的
编辑:
洛伊克·巴罗,Ondřej Bojar公司,费提·布加雷斯,拉金·查特吉,Marta R.Costa-jussá,克里斯蒂安·费德曼,马克·费舍尔,亚历山大·弗雷泽,伊维特·格雷厄姆,帕科·古兹曼,巴里·哈多,马蒂亚斯·哈克,安东尼奥·吉梅诺·耶佩斯,菲利普·科恩,安德烈·马丁斯,森田真本,克里斯托夫·蒙兹,长田正树,中泽俊一(Toshiaki Nakazawa),马泰奥·内格里
地点:
WMT公司
SIG公司:
SIGMT公司
出版商:
计算语言学协会
注:
页:
92–99
语言:
网址:
https://aclantology.org/2020.wmt-1.5
内政部:
比比键:
引用(ACL):
雷切尔·鲍登(Rachel Bawden)、亚历山德拉·伯奇(Alexandra Birch)、拉迪娜·多布雷娃(Radina Dobreva)、阿图罗·昂塞维(Arturo Oncevay)、安东尼奥·瓦莱里奥·米塞利·巴龙(Antonio Valerio Micel。2020爱丁堡大学向WMT20新闻翻译任务提交的英语词典和英语词典.英寸第五届机器翻译会议记录,第92-99页,在线。计算语言学协会。
引用(非正式):
爱丁堡大学向WMT20新闻翻译任务提交的英语词典和英语词典(Bawden等人,WMT 2020)
复制引文:
PDF格式:
https://aclantology.org/2020.wmt-1.5.pdf
视频:
 https://slideslive.com/38939642