多语言词汇翻译中的神经传递

迪伦·刘易斯,温斯顿·吴,艾莉亚·麦卡锡,大卫·亚罗斯基


摘要
我们提出了一种完成多语言翻译词典的方法。我们的概率方法可以合成新的单词形式,使其能够在文本中未观察到正确翻译的情况下运行(参见跨语言嵌入)。此外,我们提出了一个近似的最大互信息(MMI)解码目标,以进一步提高在多对一和一对一单词级翻译任务中的性能,在这些任务中,我们将多个输入语言用于单个目标语言或更典型的单语言对翻译。该模型是在多对多的环境中训练的,它可以利用来自相关语言的信息来预测各种目标语言中的单词。我们关注6种语言:法语、西班牙语、意大利语、葡萄牙语、罗马尼亚语和土耳其语。当间接的多语种信息可用时,与专家的组合以及相关语言的结合将导致在单一来源基线上预测的全字准确性相对提高27%。当多语言数据不可用时,为完成设定种子,最好使用MMI目标进行解码。
选集ID:
2020.coling-main.387年
体积:
第28届国际计算语言学会议论文集
月份:
十二月
年份:
2020
地址:
西班牙巴塞罗那(在线)
编辑:
多妮娅·斯科特,努里亚·贝尔,宗承庆
地点:
冷却
信号:
出版商:
国际计算语言学委员会
注:
页:
4373–4384
语言:
网址:
https://aclantology.org/2020.coling-main.387
内政部:
10.18653/v1/2020.coling-main.387
比比键:
引用(ACL):
Dylan Lewis、Winston Wu、Arya D.McCarthy和David Yarowsky。2020多语言词汇翻译中的神经传递.英寸第28届国际计算语言学会议论文集,第4373–4384页,西班牙巴塞罗那(在线)。国际计算语言学委员会。
引用(非正式):
多语言词汇翻译中的神经传递(Lewis等人,COLING 2020)
复制引文:
PDF格式:
https://aclcollectory.org/2020.coling-main.387.pdf