利用单调知识提取实现更好的同声翻译

王舒舒,吴晶(音译),范凯,魏洛,肖军(Jun Xiao),黄忠强


摘要
同时机器翻译(SiMT)提出了一个独特的挑战,因为它需要在源句子完全被使用之前生成目标标记。这可能导致幻觉问题,即生成目标标记时没有源语句的支持。由于源语言和目标语言之间的语序不同,用于训练SiMT模型的前缀对前缀训练数据并不总是并行的,这可能会导致这个问题。在本文中,我们提出了一种新的方法,该方法利用传统翻译模型作为教师,并使用两阶段波束搜索算法生成单调但准确的参考译文,用于序列级知识提取。实验结果表明,我们的方法在多个强SiMT基线上取得了显著的改进,从而在各种语言对之间实现了最新的性能。值得注意的是,当对WMT15 De-En测试集的单调版本进行评估时,其中包括专业翻译人员以更单调的风格生成的引用,我们的方法比基线实现了更大的改进。源代码和数据公开供进一步研究。
选集ID:
2023.acl长131
体积:
计算语言学协会第61届年会论文集(第一卷:长篇论文)
月份:
七月
年份:
2023
地址:
加拿大多伦多
编辑:
安娜·罗杰斯,乔丹·博伊德·格雷伯,冈崎直(Naoaki Okazaki)
地点:
国际计算语言学协会
SIG公司:
出版商:
计算语言学协会
注:
页:
2334–2349
语言:
网址:
https://aclantology.org/2023.acl-long.131网址
内政部:
10.18653/v1/2023.acl长131
比比键:
引用(ACL):
王树书、吴静、范凯、罗伟、肖军和黄忠强。2023利用单调知识提取实现更好的同声翻译.英寸计算语言学协会第61届年会论文集(第一卷:长篇论文),第2334–2349页,加拿大多伦多。计算语言学协会。
引用(非正式):
利用单调知识提取实现更好的同声翻译(Wang等人,ACL 2023)
复制引文:
PDF格式:
https://aclantology.org/2023.acl-long.131.pdf
视频:
 https://aclantology.org/2023.acl-long.131.mp4