@进展中{zhang-etal-2018-改进,title=“利用文档级上下文改进变压器翻译模型”,author=“张、嘉诚和栾、环波、孙茂松翟、菲菲和Xu、Jingfang和张敏和刘,杨“,editor=“Riloff、Ellen和蒋、大卫和曲棍球手、朱莉娅和Tsujii,Jun{'}ichi“,booktitle=“2018年自然语言处理实证方法会议记录”,月=10月#“-”11月#日,year=“2018”,address=“比利时布鲁塞尔”,publisher=“计算语言学协会”,url=“https://aclantology.org/D18-1049”,doi=“10.18653/v1/D18-1049”,pages=“533--542”,abstract=“尽管变形金刚翻译模型(Vaswani等人,2017)在各种翻译任务中取得了最先进的表现,如何使用文档级上下文处理Transformer遇到的话语现象仍然是一个挑战。在这项工作中,我们使用新的上下文编码器扩展了Transformer模型,以表示文档级上下文,然后将其合并到原始编码器和解码器中。由于大规模文档级并行语料库通常不可用,因此我们引入了一种两步训练方法,以充分利用句子级并行语料丰富和文档级平行语料库有限的优势。在NIST中英文数据集和IWSLT法语-英语数据集上的实验表明,我们的方法比Transformer有显著改进。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“zhang-etal-2018改进”><标题信息><title>利用文档级上下文改进Transformer翻译模型</titleInfo><name type=“personal”>嘉诚<namePart type=“given”><namePart type=“family”>张<角色>作者</角色></name><name type=“personal”>环波<namePart type=“given”>栾<namePart type=“family”>Luan<角色>作者</角色></name><name type=“personal”>毛松太阳<角色>作者</角色></name><name type=“personal”><namePart type=“given”>菲菲</namePart>翟<角色>作者</角色></name><name type=“personal”>精纺<namePart type=“given”><namePart type=“family”>徐</namePart><角色>作者</角色></name><name type=“personal”>最小值<namePart type=“family”>张<角色>作者</角色></name><name type=“personal”>杨(Yang)刘<角色>作者</角色></name><originInfo>2018年10月11日发布</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2018年自然语言处理实证方法会议记录</titleInfo><name type=“personal”>艾伦里洛夫<角色>编辑器</角色></name><name type=“personal”>大卫蒋介石<角色>编辑器</角色></name><name type=“personal”>朱莉娅曲棍球运动员<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>Jun'ichi</namePart>筑井<namePart type=“family”><角色>编辑器</角色></name><originInfo>计算语言学协会<位置>比利时布鲁塞尔</place></originInfo>会议出版物</relatedItem>尽管Transformer翻译模型(Vaswani等人,2017)在各种翻译任务中取得了最先进的表现,但如何使用文档级上下文来处理Transformer遇到的话语现象仍然是一个挑战。在这项工作中,我们使用新的上下文编码器扩展了Transformer模型,以表示文档级上下文,然后将其合并到原始编码器和解码器中。由于大规模文档级并行语料库通常不可用,因此我们引入了一种两步训练方法,以充分利用句子级并行语料丰富和文档级平行语料库有限的优势。在NIST中英文数据集和IWSLT法语-英语数据集上的实验表明,我们的方法比Transformer有显著改进</摘要><identifier type=“citekey”>zhang-etal-2018-改进10.18653/v1/D18-1049<位置><网址>https://aclantology.org/D18-1049</url></位置><部分>2018年10月11日<扩展单元=“page”><开始>533</开始><end>542</范围></部分></mods></mods集合>
%0会议记录%用文档级上下文改进变压器翻译模型%A Zhang,嘉诚%阿栾、环波%孙茂松%阿寨,菲菲%阿旭、井坊%阿章,敏%A刘,杨%埃伦·Y·里洛夫%Y Chiang,大卫%朱莉亚·霍肯迈尔%Y Tsujii,Jun’ichi先生%2018年自然语言处理实证方法会议论文集%2018年D月%10月8日-11月%计算语言学协会%C比利时布鲁塞尔%F zhang-etal-2018-改进%X尽管Transformer翻译模型(Vaswani等人,2017)在各种翻译任务中取得了最先进的表现,但如何使用文档级上下文处理Transformer存在的话语现象仍然是一个挑战。在这项工作中,我们使用新的上下文编码器扩展了Transformer模型,以表示文档级上下文,然后将其合并到原始编码器和解码器中。由于大规模文档级并行语料库通常不可用,因此我们引入了一种两步训练方法,以充分利用句子级并行语料丰富和文档级平行语料库有限的优势。在NIST中英文数据集和IWSLT法语-英语数据集上的实验表明,我们的方法比Transformer有显著改进。%10.18653/v1/D18-1049兰特%U型https://aclantology.org/D18-1049%U型https://doi.org/10.18653/v1/D18-1049%电话:533-542
降价(非正式)
[利用文档级上下文改进转换器翻译模型](https://aclantology.org/D18-1049)(Zhang等人,EMNLP 2018)
国际计算语言学协会
- 张嘉诚、栾焕波、孙茂松、翟飞飞、徐静芳、张敏和杨柳。2018利用文档级上下文改进变压器翻译模型.英寸2018年自然语言处理实证方法会议记录,第533-542页,比利时布鲁塞尔。计算语言学协会。