@进行中{wang-etal-2023-更好,title=“通过单调知识提取实现更好的同声翻译”,author=“王、舒舒和吴靖和Fan、Kai和罗、伟和肖军和黄忠强”,editor=“罗杰斯、安娜和Boyd-Graber、Jordan和冈崎、直崎“,booktitle=“计算语言学协会第61届年会会议记录(第1卷:长篇论文)”,月=七月,年=“2023”,address=“加拿大多伦多”,publisher=“计算语言学协会”,url=“https://aclcollectory.org/2023.acl-long.131”,doi=“10.18653/v1/2023.acl-long.131”,pages=“2334--2349”,abstract=“同步机器翻译(SiMT)提出了一个独特的挑战,因为它需要在源语句被完全消耗之前生成目标令牌。这可能导致幻觉问题,即生成目标标记时没有源语句的支持。由于源语言和目标语言之间的语序不同,用于训练SiMT模型的前缀对前缀训练数据并不总是并行的,这可能会导致这个问题。在本文中,我们提出了一种新的方法,该方法利用传统翻译模型作为教师,并使用两阶段波束搜索算法生成单调但准确的参考译文,用于序列级知识提取。实验结果表明,我们的方法在多个强SiMT基线上取得了显著的改进,从而在各种语言对之间实现了最新的性能。值得注意的是,当对WMT15 De-En测试集的单调版本进行评估时,其中包括专业翻译人员以更单调的风格生成的引用,我们的方法比基线实现了更大的改进。源代码和数据公开供进一步研究。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“wang-etal-2023-更好”><标题信息><title>通过单调知识提取实现更好的同声翻译</titleInfo><name type=“personal”>舒舒王<namePart type=“family”><角色>作者</角色></name><name type=“personal”>京吴<角色>作者</角色></name><name type=“personal”><namePart type=“given”>Kai风扇<角色>作者</角色></name><name type=“personal”>魏<namePart type=“given”>罗<namePart type=“family”><角色>作者</角色></name><name type=“personal”>六月肖(Xiao)<角色>作者</角色></name><name type=“personal”>中强<namePart type=“given”>黄<namePart type=“family”><角色>作者</角色></name><originInfo>发布日期:2023-07发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会第61届年会会议记录(第1卷:长篇论文)</titleInfo><name type=“personal”>安娜罗杰斯<角色><roleTerm authority=“marcorrator”type=“text”>编辑器</roleTerm></角色></name><name type=“personal”>约旦博伊德·格雷伯<角色><roleTerm authority=“marcorrator”type=“text”>编辑器</roleTerm></角色></name><name type=“personal”>直崎<namePart type=“given”>冈崎<角色><roleTerm authority=“marcorrator”type=“text”>编辑器</roleTerm></角色></name><originInfo>计算语言学协会<位置>加拿大多伦多</place></originInfo>会议出版物</relatedItem><abstract>同步机器翻译(SiMT)提出了一个独特的挑战,因为它需要在源句子完全被使用之前生成目标标记。这可能导致幻觉问题,即生成目标标记时没有源语句的支持。由于源语言和目标语言之间的语序不同,用于训练SiMT模型的前缀对前缀训练数据并不总是并行的,这可能会导致这个问题。在本文中,我们提出了一种新的方法,该方法利用传统翻译模型作为教师,并使用两阶段波束搜索算法生成单调但准确的参考译文,用于序列级知识提取。实验结果表明,我们的方法在多个强SiMT基线上取得了显著的改进,从而在各种语言对之间实现了最新的性能。值得注意的是,当对WMT15 De-En测试集的单调版本进行评估时,其中包括专业翻译人员以更单调的风格生成的引用,我们的方法比基线实现了更大的改进。源代码和数据是公开的,可供进一步探索</摘要><identifier type=“citekey”>wang-etal-2023-更好10.18653/v1/2023.acl-long.131<位置><网址>https://aclantology.org/2023.acl-long.131网址</url></位置><部分>2023-07年<扩展单元=“page”><开始>2334</开始><end>2349</范围></部分></mods></modsCollection>
%0会议记录%用单调知识提取实现更好的同声翻译%阿旺、舒舒%阿武,静%一个粉丝,Kai%阿罗,魏%阿晓,君%阿黄、中强%安娜·罗杰斯%Y Boyd-Graber,约旦%Y冈崎,直崎%计算语言学协会第61届年会论文集(第一卷:长篇论文)%D 2023年%7月8日%计算语言学协会%C加拿大多伦多%F wang-etal-2023更好%X同步机器翻译(SiMT)提出了一个独特的挑战,因为它需要在源句子完全被使用之前生成目标标记。这可能导致幻觉问题,即生成目标标记时没有源语句的支持。由于源语言和目标语言之间的语序不同,用于训练SiMT模型的前缀对前缀训练数据并不总是并行的,这可能会导致这个问题。在本文中,我们提出了一种新的方法,该方法利用传统翻译模型作为教师,并使用两阶段波束搜索算法生成单调但准确的参考译文,用于序列级知识提取。实验结果表明,我们的方法在多个强SiMT基线上取得了显著的改进,从而在各种语言对之间实现了最新的性能。值得注意的是,当对WMT15 De-En测试集的单调版本进行评估时,其中包括专业翻译人员以更单调的风格生成的引用,我们的方法比基线实现了更大的改进。源代码和数据公开供进一步研究。%R 10.18653/v1/2023.acl长131%U型https://aclantology.org/2023.acl-long.131网址%U型https://doi.org/10.18653/v1/2023.acl-long.131%电话2334-2349
降价(非正式)
[通过单调知识提取实现更好的同声翻译](https://aclantology.org/2023.acl-long.131网址)(Wang等人,ACL 2023)
国际计算语言学协会
- 王树书、吴静、范凯、罗伟、肖军和黄忠强。2023利用单调知识提取实现更好的同声翻译.英寸计算语言学协会第61届年会论文集(第一卷:长篇论文),第2334–2349页,加拿大多伦多。计算语言学协会。