@进行中{murray-chiang-2018-correctings,title=“纠正神经机器翻译中的长度偏差”,author=“穆雷、肯顿和大卫·蒋”,editor=“Bojar,Ond{\v{r}}ej和查特吉、拉金和费德曼、克里斯蒂安和费舍尔、马克和格雷厄姆、伊维特和哈多、巴里和哈克、马提亚斯和是的,安东尼奥·吉梅诺和Koehn、Philipp和蒙兹、克里斯托夫和Negri、Matteo和N{\'e}v{\'e}ol,Aur{\e}谎言和内维斯、玛丽安娜和Post、Matt和Specia、Lucia和图尔奇、马尔科和卡琳·弗斯普尔”,booktitle=“第三届机器翻译会议论文集:研究论文”,月=10月,year=“2018”,address=“比利时布鲁塞尔”,publisher=“计算语言学协会”,url=“https://aclantology.org/W18-6322”,doi=“10.18653/v1/W18-6322”,pages=“212--223”,abstract=“我们研究了神经机器翻译(NMT)中的两个问题首先,在波束搜索中,虽然较宽的波束原则上有助于平移,但通常会损害NMT。其次,NMT倾向于翻译得太短。在这里,我们认为这些问题密切相关,都根源于标签偏见。我们表明,修正简洁性问题几乎消除了波束问题;我们比较了一些常用的方法,发现简单的读单词奖励效果很好;我们介绍了一种使用感知器算法简单快速地调整该奖励的方法。",}
<?xml版本=“1.0”编码=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“murray-chaang-2018-修正”><标题信息>修正神经机器翻译中的长度偏差</titleInfo><name type=“personal”>肯顿穆雷<角色>作者</角色></name><name type=“personal”>大卫蒋介石<角色>作者</角色></name><originInfo>2018-10发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息><title=第三届机器翻译大会论文集:研究论文</title=</titleInfo><name type=“personal”><namePart type=“给定”>Ondřej</namePart>博加尔<角色>编辑器</角色></name><name type=“personal”>拉詹查特吉<角色>编辑器</角色></name><name type=“personal”>克里斯蒂安费德曼<角色>编辑器</角色></name><name type=“personal”>标记费舍尔<角色>编辑器</角色></name><name type=“personal”>Yvette(伊维特)格雷厄姆<角色>编辑器</角色></name><name type=“personal”>巴里哈多<角色>编辑器</角色></name><name type=“personal”>马提亚斯哈克<角色>编辑器</角色></name><name type=“personal”>安东尼奥Jimeno是的<角色>编辑器</角色></name><name type=“personal”>飞利浦科恩<角色>编辑器</角色></name><name type=“personal”>克里斯托夫蒙兹<角色>编辑器</角色></name><name type=“personal”>马蒂奥Negri(奈格里)<角色>编辑器</角色></name><name type=“personal”>奥雷利内维尔<角色>编辑器</角色></name><name type=“personal”>玛丽安娜内维斯<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>马特帖子<角色>编辑器</角色></name><name type=“personal”>露西娅Specia系列<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>马可图尔奇<namePart type=“family”><角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>卡琳</namePart>Verspoor公司<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>比利时布鲁塞尔</place></originInfo>会议出版物</relatedItem>我们研究了神经机器翻译(NMT)中的两个问题。首先,在波束搜索中,虽然较宽的波束原则上有助于平移,但通常会损害NMT。其次,NMT倾向于翻译得太短。在这里,我们认为这些问题密切相关,都根源于标签偏见。我们证明,修正简洁性问题几乎消除了波束问题;我们比较了一些常用的方法,发现简单的单词奖励效果很好;我们介绍了一种使用感知器算法简单快速地调整该奖励的方法</摘要><identifier type=“citekey”>murray-chiang-2018-correcting</identifier>10.18653/v1/W18-6322<位置><网址>https://aclantology.org/W18-6322</url></位置><部分>2018-10年<扩展单元=“page”><开始>212</开始><end>223</范围></部分></mods></modsCollection>
%0会议记录%神经机器翻译中的T校正长度偏差%A Murray,肯顿%大卫·A·蒋%Y Bojar,Ondřej%拉金·查特吉%Y Federmann,克里斯蒂安%Y Fishel,马克%伊维特·Y·格雷厄姆%巴里·Y·哈多%Y哈克,马提亚斯%Y Yepes,安东尼奥·吉梅诺%Y Koehn,菲利普%克里斯托夫·蒙兹%Y Negri,马蒂奥%奥雷利·Y·内维尔%玛丽亚娜·尼维斯%Y Post,马特%露西娅·Y·斯佩西亚%马可·Y·图奇%Y Verspoor,卡琳%第三届机器翻译会议论文集:研究论文%2018年D月%10月8日%计算语言学协会%C比利时布鲁塞尔%F murray-chiang-2018-更正%我们研究了神经机器翻译(NMT)中的两个问题。首先,在波束搜索中,虽然较宽的波束原则上有助于平移,但通常会损害NMT。其次,NMT倾向于翻译得太短。在这里,我们认为这些问题密切相关,都根源于标签偏见。我们表明,修正简洁性问题几乎消除了波束问题;我们比较了一些常用的方法,发现简单的单词奖励效果很好;我们介绍了一种使用感知器算法来调整这种奖励的简单而快速的方法。%10.18653/v1/W18-6322兰特%U型https://aclantology.org/W18-6322%U型https://doi.org/10.18653/v1/W18-6322%电话212-223
降价(非正式)
[纠正神经机器翻译中的长度偏差](https://aclantology.org/W18-6322)(Murray&Chiang,WMT 2018)
国际计算语言学协会
- 肯顿·默里和大卫·蒋。2018神经机器翻译中长度偏差的校正.英寸第三届机器翻译会议记录:研究论文,第212-223页,比利时布鲁塞尔。计算语言学协会。