@正在进行{pham-etal-2018-karlsruhe,title=“卡尔斯鲁厄技术系统研究所(The Karlsruhe Institute of Technology Systems)在2018年{WMT}的新闻翻译任务”,author=“Pham、Ngoc-Quan和Niehues、Jan和亚历山大·威贝尔”,editor=“Bojar,Ond{\v{r}}ej和Chatterjee、Rajen和费德曼、克里斯蒂安和费舍尔、马克和格雷厄姆、伊维特和哈多、巴里和哈克、马蒂亚斯和是的,安东尼奥·吉梅诺和Koehn、Philipp和蒙兹、克里斯托夫和Negri、Matteo和N{\'e}v{\'e}ol,Aur{\e}谎言和内维斯、玛丽安娜和Post、Matt和Specia、Lucia和图尔奇、马尔科和卡琳·弗斯普尔”,booktitle=“第三届机器翻译会议论文集:共享任务文件”,月=10月,year=“2018”,address=“比利时,布鲁塞尔”,publisher=“计算语言学协会”,url=“https://aclantology.org/W18-6422”,doi=“10.18653/v1/W18-6422”,第467-472页,abstract=“我们在2018年WMT的新闻翻译任务范围内进行了实验,方向是:英语→德语。我们系统的核心是使用变压器架构的基于编解码的神经机器翻译模型。我们用更深层的架构增强了模型。通过使用技术限制内存消耗,我们能够在一个GPU上训练4倍大的模型,并将性能提高1.2 BLEU点。此外,我们对新获得的ParaCrawl语料库进行了句子选择。因此,我们可以将语料库的有效性提高0.5 BLEU点。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“pham-etal-2018-karlsruhe”><标题信息>卡尔斯鲁厄技术系统研究所(The Karlsruhe Institute of Technology Systems)2018年WMT新闻翻译任务</titleInfo><name type=“personal”>Ngoc-Quan范文<角色>作者</角色></name><name type=“personal”>一月尼胡斯<角色>作者</角色></name><name type=“personal”>亚历山大韦贝尔<角色>作者</角色></name><originInfo>2018-10发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第三届机器翻译会议论文集:共享任务文件</titleInfo><name type=“personal”>Ondřej博加尔<角色>编辑器</角色></name><name type=“personal”>拉詹查特吉<角色>编辑器</角色></name><name type=“personal”>克里斯蒂安<namePart type=“family”>费德曼</namePart><角色>编辑器</角色></name><name type=“personal”>标记费舍尔<角色>编辑器</角色></name><name type=“personal”><namePart type=“给定”>Yvette</namePart>格雷厄姆<角色>编辑器</角色></name><name type=“personal”>巴里哈多<角色>编辑器</角色></name><name type=“personal”>马提亚斯哈克<角色>编辑器</角色></name><name type=“personal”>安东尼奥Jimeno是的<角色>编辑器</角色></name><name type=“personal”>飞利浦科恩<角色>编辑器</角色></name><name type=“personal”>克里斯托夫蒙兹<角色>编辑器</角色></name><name type=“personal”>马蒂奥Negri(奈格里)<角色>编辑器</角色></name><name type=“personal”>奥雷利内维尔<角色>编辑器</角色></name><name type=“personal”>玛丽安娜内维斯<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>马特帖子<角色>编辑器</角色></name><name type=“personal”>露西娅Specia系列<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>马可图尔奇<namePart type=“family”><角色>编辑器</角色></name><name type=“personal”>卡琳Verspoor公司<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>比利时、布鲁塞尔</地点></originInfo>会议出版物</relatedItem><摘要>我们在2018年WMT的新闻翻译任务范围内进行了实验,方向是:英语→德语。我们系统的核心是使用变压器架构的基于编解码的神经机器翻译模型。我们用更深层的架构增强了模型。通过使用技术限制内存消耗,我们能够在一个GPU上训练4倍大的模型,并将性能提高1.2 BLEU点。此外,我们对新获得的ParaCrawl语料库进行了句子选择。因此,我们可以将语料库的有效性提高0.5个BLEU点</摘要><identifier type=“citekey”>pham-etal-2018-karlsruhe<identifier type=“doi”>10.18653/v1/W18-6422</identifier><位置><网址>https://aclantology.org/W18-6422</url></位置><部分>2018-10年<扩展单元=“page”><开始>467<end>472</范围></部分></mods></modsCollection>
%0会议记录%卡尔斯鲁厄技术系统研究所(The Karlsruhe Institute of Technology Systems)2018年WMT新闻翻译任务%阿范,Ngoc-Quan%A Niehues,简%亚历山大·威贝尔%Y Bojar,Ondřej%拉金·查特吉%Y Federmann,克里斯蒂安%Y Fishel,马克%伊维特·Y·格雷厄姆%巴里·Y·哈多%Y哈克,马提亚斯%Y Yepes,安东尼奥·吉梅诺%Y Koehn,菲利普%克里斯托夫·蒙兹%Y Negri,马蒂奥%奥雷利·Y·内维尔%玛丽亚娜·尼维斯%Y Post,马特%露西娅·Y·斯佩西亚%马尔科·图尔奇%Y Verspoor,卡琳%第三届机器翻译会议论文集:共享任务文件%2018年D月%10月8日%计算语言学协会%C比利时,布鲁塞尔%F相-etal-2018年-卡尔苏赫%X我们在2018年WMT的新闻翻译任务范围内进行了实验,方向是:英语→德语。我们系统的核心是使用变压器架构的基于编解码的神经机器翻译模型。我们用更深层的架构增强了模型。通过使用技术限制内存消耗,我们能够在一个GPU上训练4倍大的模型,并将性能提高1.2 BLEU点。此外,我们对新获得的ParaCrawl语料库进行了句子选择。因此,我们可以将语料库的有效性提高0.5 BLEU点。%10.18653/v1/W18-6422兰特%U型https://aclantology.org/W18-6422%U型https://doi.org/10.18653/v1/W18-6422%电话:467-472
降价(非正式)
【卡尔斯鲁厄技术系统研究所2018年WMT新闻翻译任务】(https://aclantology.org/W18-6422)(Pham等人,WMT 2018)
国际计算语言学协会