@正在进行{libovicky-etal-2018-input,title=“多源变压器解码器的输入组合策略”,author=“Libovick{\'y},Jind{\v{r}}ich和Helcl、Jind和Mare{\v{c}}ek,David“,editor=“Bojar,Ond{\v{r}}ej和Chatterjee、Rajen和费德曼、克里斯蒂安和费舍尔、马克和格雷厄姆、伊维特和哈多、巴里和哈克、马提亚斯和是的,安东尼奥·吉梅诺和Koehn、Philipp和蒙兹、克里斯托夫和Negri、Matteo和N{\'e}v{\'e}ol,Aur{\e}谎言和内维斯、玛丽安娜和Post、Matt和Specia、Lucia和图尔奇、马尔科和卡琳·弗斯普尔”,booktitle=“第三届机器翻译会议论文集:研究论文”,月份=十月,year=“2018”,address=“比利时布鲁塞尔”,publisher=“计算语言学协会”,url=“https://aclantology.org/W18-6326”,doi=“10.18653/v1/W18-6326”,pages=“253--260”,抽象=“在多源序列到序列任务中,注意力机制可以通过多种方式建模。本主题已经在递归体系结构上进行了深入研究。本文将之前的工作扩展到Transformer体系结构中的编码器-解码器注意力。我们为编码器-解码器提出了四种不同的输入组合策略顺序注意:串行、并行、平面和层次。我们评估了我们在多式翻译和多源语言翻译任务中的方法。实验表明,该模型能够使用多个信源,并优于单信源基线。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“libovicky-etal-2018-input”><标题信息>多源变压器解码器的输入组合策略</titleInfo><name type=“personal”>Jindřich利波维奇<角色>作者</角色></name><name type=“personal”><namePart type=“给定”>Jindřich</namePart>Helcl服务器<角色>作者</角色></name><name type=“personal”>大卫马雷切克<角色>作者</角色></name><originInfo><dateIssue>2018-10</dateIssue>发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息><title=第三届机器翻译大会论文集:研究论文</title=</titleInfo><name type=“personal”>Ondřej博加尔<角色>编辑器</角色></name><name type=“personal”>拉詹查特吉<角色>编辑器</角色></name><name type=“personal”>克里斯蒂安<namePart type=“family”>费德曼</namePart><角色>编辑器</角色></name><name type=“personal”>标记费舍尔<角色>编辑器</角色></name><name type=“personal”>Yvette(伊维特)格雷厄姆<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>巴里</namePart>哈多<角色>编辑器</角色></name><name type=“personal”>马提亚斯哈克<角色>编辑器</角色></name><name type=“personal”>安东尼奥Jimeno是的<角色>编辑器</角色></name><name type=“personal”>飞利浦科恩<角色>编辑器</角色></name><name type=“personal”>克里斯托夫蒙兹<角色>编辑器</角色></name><name type=“personal”>马蒂奥Negri(奈格里)<角色>编辑器</角色></name><name type=“personal”>奥雷利<namePart type=“family”>Névéol</namePart><角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>马里亚纳</namePart>内维斯<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>马特帖子<角色>编辑器</角色></name><name type=“personal”>露西娅Specia系列<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>马可图尔奇<namePart type=“family”><角色>编辑器</角色></name><name type=“personal”>卡琳Verspoor公司<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>比利时布鲁塞尔</地点></originInfo>会议出版物</relatedItem><abstract>在多源序列到序列任务中,注意力机制可以通过多种方式建模。这个主题已经在递归体系结构上进行了深入研究。在本文中,我们将前面的工作扩展到Transformer架构中的编码器-解码器关注点。我们提出了四种不同的输入组合策略以引起编解码器的注意:串行、并行、平坦和分层。我们评估了我们在多式翻译和多源语言翻译任务中的方法。实验表明,该模型能够使用多个信源,并优于单信源基线</摘要>libovicky-etal-2018-input输入10.18653/v1/W18-6326<位置><网址>https://aclantology.org/W18-6326</url></位置><部分>2018-10年<扩展单元=“page”><开始>253<end>260</end></范围></部分></mods></mods集合>
%0会议记录%多源变压器解码器的T输入组合策略%利波维奇,Jind ich%赫尔克,金德里奇%A Mareček,大卫%Y Bojar,Ondřej%拉金·查特吉%Y Federmann,克里斯蒂安%Y Fishel,马克%伊维特·Y·格雷厄姆%巴里·Y·哈多%Y哈克,马提亚斯%Y Yepes,安东尼奥·吉梅诺%Y Koehn,菲利普%克里斯托夫·蒙兹%Y内格里,马泰奥%奥雷利·Y·内维尔%玛丽亚娜·尼维斯%Y Post,马特%露西娅·Y·斯佩西亚%马尔科·图尔奇%Y Verspoor,卡琳%第三届机器翻译会议论文集:研究论文%2018年D月%10月8日%计算语言学协会%C比利时布鲁塞尔%F libovicky-etal-2018输入%X在多源序列到序列任务中,注意力机制可以通过多种方式建模。这个主题已经在递归体系结构上进行了深入研究。在本文中,我们将前面的工作扩展到Transformer架构中的编码器-解码器关注点。我们提出了四种不同的输入组合策略来引起编码器-解码器的注意:串行、并行、平面和分层。我们评估了我们在多式翻译和多源语言翻译任务中的方法。实验表明,该模型能够使用多个信源,并优于单信源基线。%10.18653/v1/W18-6326兰特%U型https://aclantology.org/W18-6326%U型https://doi.org/10.18653/v1/W18-6326%电话253-260
降价(非正式)
[多源变压器解码器的输入组合策略](https://aclantology.org/W18-6326)(利波维奇等人,WMT 2018)
国际计算语言学协会
- Jind ich Libovick、Jind ich-Helcl和David Mareček。2018多源变压器解码器的输入组合策略.英寸第三届机器翻译会议记录:研究论文,第253-260页,比利时布鲁塞尔。计算语言学协会。