@进行中{lewis-etal-2020-神经,title=“多语言词汇翻译的神经传递”,author=“刘易斯、迪伦和Wu、Winston和Arya D.McCarthy和David Yarowsky“,editor=“Scott、Donia和贝尔、努里亚和宗成庆”,booktitle=“第28届国际计算语言学会议论文集”,月=12月,年=“2020”,address=“西班牙巴塞罗那(在线)”,publisher=“国际计算语言学委员会”,url=“https://aclantology.org/2020.coling-main.387”,doi=“10.18653/v1/2020.coling-main.387”,pages=“4373--4384”,abstract=“我们提出了一种完成多语种翻译词典的方法。我们的概率方法可以合成新的单词形式,使其能够在文本中未观察到正确翻译的情况下运行(参见跨语言嵌入)。此外,我们提出了近似的最大互信息(MMI)解码目的进一步提高多对一和一对一单词级翻译任务的性能,在这些任务中,我们使用多个输入语言进行单个目标语言或更典型的单语言对翻译。该模型是在多对多的环境中训练的,它可以利用来自相关语言的信息来预测各种目标语言中的单词。我们关注6种语言:法语、西班牙语、意大利语、葡萄牙语、罗马尼亚语和土耳其语。当间接的多语种信息可用时,与专家的组合以及结合相关的语言可以在单一来源基线上相对提高27{\%}的全字预测准确性。当多语言数据不可用时,为完成设定种子,最好使用MMI目标进行解码。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“lewis-etal-2020-neural”><标题信息>多语言词汇翻译中的神经传递</titleInfo><name type=“personal”><namePart type=“given”>迪伦</namePart>刘易斯<角色>作者</角色></name><name type=“personal”>温斯顿<namePart type=“family”>吴</namePart><角色>作者</角色></name><name type=“personal”>雅利娅<namePart type=“given”>D</namePart>麦卡锡<角色>作者</角色></name><name type=“personal”>大卫雅罗斯基<角色>作者</角色></name><originInfo><发布日期>2020-12</发布日期></originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息><title=第28届国际计算语言学大会论文集</title=</titleInfo><name type=“personal”>Donia(多尼亚)斯科特<角色>编辑器</角色></name><name type=“personal”>努里亚贝尔<角色>编辑器</角色></name><name type=“personal”>成清<namePart type=“given”>宗族<角色>编辑器</角色></name><originInfo><publisher>国际计算语言学委员会</publisher><位置>西班牙巴塞罗那(在线)</place></originInfo><type-authority=“marcgt”>会议出版物</type></relatedItem>我们提出了一种完成多语言翻译词典的方法。我们的概率方法可以合成新的单词形式,使其能够在文本中未观察到正确翻译的情况下运行(参见跨语言嵌入)。此外,我们提出了一个近似的最大互信息(MMI)解码目标,以进一步提高在多对一和一对一单词级翻译任务中的性能,在这些任务中,我们将多个输入语言用于单个目标语言或更典型的单语言对翻译。该模型是在多对多的环境中训练的,它可以利用来自相关语言的信息来预测各种目标语言中的单词。我们关注6种语言:法语、西班牙语、意大利语、葡萄牙语、罗马尼亚语和土耳其语。当间接的多语种信息可用时,与专家的组合以及相关语言的结合将导致在单一来源基线上预测的全字准确性相对提高27%。当多语言数据不可用时,为完成设定种子,最好使用MMI目标进行解码</摘要>路易斯·埃塔尔-2020-neural<identifier type=“doi”>10.18653/v1/2020。coling-main.387<位置><网址>https://aclantology.org/2020.coling-main.387</url></位置><部分>2020-12年<日期><扩展单元=“page”><开始>4373<end>4384</范围></部分></mods></modsCollection>
%0会议记录%多语言词汇翻译中的T神经传递%A Lewis,Dylan(迪伦·刘易斯)%温斯顿·A Wu%A McCarthy,Arya D。%A Yarowsky,大卫%多尼亚·Y·斯科特%努里亚·Y·贝尔%Y Zong、程青%第28届国际计算语言学会议论文集%D 2020年%12月8日%国际计算语言学委员会%C巴塞罗那,西班牙(在线)%F lewis-etal-2020-神经%X我们提出了一种完成多语言翻译词典的方法。我们的概率方法可以合成新的单词形式,使其能够在文本中未观察到正确翻译的情况下运行(参见跨语言嵌入)。此外,我们提出了一个近似的最大互信息(MMI)解码目标,以进一步提高在多对一和一对一单词级翻译任务中的性能,在这些任务中,我们将多个输入语言用于单个目标语言或更典型的单语言对翻译。该模型是在多对多的环境中训练的,它可以利用来自相关语言的信息来预测各种目标语言中的单词。我们关注6种语言:法语、西班牙语、意大利语、葡萄牙语、罗马尼亚语和土耳其语。当间接的多语种信息可用时,与专家的组合以及相关语言的结合将导致在单一来源基线上预测的全字准确性相对提高27%。为了在多语言数据不可用的情况下完成,最好使用MMI目标进行解码。%R 10.18653/v1/2020.coling-main.387%U型https://aclantology.org/2020.coling-main.387%U型https://doi.org/10.18653/v1/2020.coling-main.387%电话:4373-4384
降价(非正式)
【多语言词汇翻译的神经转导】(https://aclantology.org/2020.coling-main.387)(Lewis等人,COLING 2020)
国际计算语言学协会
- 迪伦·刘易斯(Dylan Lewis)、温斯顿·吴(Winston Wu)、艾丽亚·麦卡锡(Arya D.McCarthy)和大卫·亚罗斯基(David Yarowsky)。2020多语言词汇翻译中的神经传递.英寸第28届国际计算语言学会议论文集,第4373–4384页,西班牙巴塞罗那(在线)。国际计算语言学委员会。