@进行中{hubert-etal-2023-改进,title=“通过使用合成抄本进行基于模仿的知识提取来改进端到端语音翻译”,author=“休伯特、丽贝卡和索科洛夫、阿特姆和斯特凡·里兹勒“,editor=“Salesky、Elizabeth和费德里科、马塞洛和Carpuat,Marine“,booktitle=“第20届国际口语翻译会议(IWSLT 2023)论文集”,月=七月,年=“2023”,address=“加拿大多伦多(当面和在线)”,publisher=“计算语言学协会”,url=“https://aclcollectory.org/2023.iwslt-1.4”,doi=“10.18653/v1/2023.iwslt-1.4”,pages=“89--101”,abstract=“端到端自动语音翻译(AST)依赖于将音频输入与文本翻译输出相结合的数据。以前的工作使用现有的大型并行语料库中的转录和翻译知识蒸馏(KD)来提取神经机器翻译(NMT)成为AST学生模型。虽然KD允许使用更大的预处理模型,但以前的KD方法依赖于数据管道中的手动音频记录,这限制了此框架对AST的适用性。我们提出了一种模仿学习方法,在这种方法中,教师NMT系统可以纠正AST学生的错误,而无需依赖手工成绩单。我们表明,NMT教师可以从自动笔录中的错误中恢复,并且能够纠正AST学生的错误翻译,从而在English-German CoVoST-2和MuST-C数据集上分别比标准AST端到端基线提高约4个BLEU点。代码和数据公开:\url{https://github.com/HubReb/imitkd_ast/releases/tag/v1.1}“,}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“hubert-etal-2023-改进”><标题信息><title>通过基于模仿的知识提取和合成成绩单改进端到端语音翻译</titleInfo><name type=“personal”>丽贝卡休伯特<角色>作者</角色></name><name type=“personal”>阿特姆索科洛夫<角色>作者</角色></name><name type=“personal”>Stefan(斯特凡)Riezler公司<角色>作者</角色></name><originInfo>发布日期:2023-07发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第20届国际口语翻译大会(IWSLT 2023)会议记录</titleInfo><name type=“personal”>伊丽莎白Salesky公司<角色>编辑器</角色></name><name type=“personal”>马塞洛费德里科<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>海洋</namePart>卡普阿特<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>加拿大多伦多(同人和在线)</place></originInfo><type-authority=“marcgt”>会议出版物</type></relatedItem>端到端自动语音翻译(AST)依赖于结合音频输入和文本翻译输出的数据。之前的工作使用现有的大型并行语料库中的转录和翻译知识蒸馏(KD)设置,以提取神经机器翻译(NMT)到AST学生模型。虽然KD允许使用更大的预处理模型,但以前的KD方法依赖于数据管道中的手动音频记录,这限制了此框架对AST的适用性。我们提出了一种模仿学习方法,在这种方法中,教师NMT系统可以纠正AST学生的错误,而无需依赖手工成绩单。我们表明,NMT教师可以从自动笔录中的错误中恢复,并且能够纠正AST学生的错误翻译,从而在English-German CoVoST-2和MuST-C数据集上分别比标准AST端到端基线提高约4个BLEU点。代码和数据公开:https://github.com/HubReb/imitkd_ast/releases/tag/v1.1</摘要>hubert-etal-2023-改进10.18653/v1/2023.iwslt-1.4<位置><网址>https://aclcollectory.org/2023.iwslt-1.4</url></位置><部分>2023-07年<扩展单元=“page”><开始>89</开始><end>101</范围></部分></mods></modsCollection>
%0会议记录%利用合成文本进行基于模仿的知识提取,改进端到端语音翻译%A Hubert,丽贝卡%阿特姆·索科洛夫%A Riezler,斯特凡%Y Salesky,伊丽莎白%Y Federico,马塞洛%Y Carpuat,海军%第20届国际口语翻译大会论文集(IWSLT 2023)%D 2023年%7月8日%计算语言学协会%C加拿大多伦多(同人和在线)%F hubert-etal-2023-改进%X端到端自动语音翻译(AST)依赖于结合音频输入和文本翻译输出的数据。之前的工作使用现有的大型并行语料库中的转录和翻译知识蒸馏(KD)设置,以提取神经机器翻译(NMT)到AST学生模型。虽然KD允许使用更大的预处理模型,但以前的KD方法依赖于数据管道中的手动音频记录,这限制了此框架对AST的适用性。我们提出了一种模仿学习方法,其中教师NMT系统在不依赖手动成绩单的情况下纠正AST学生的错误。我们表明,NMT教师可以从自动转录中的错误中恢复过来,并能够纠正AST学生的错误翻译,从而在英德CoVoST-2和MuST-C数据集上分别比标准AST端到端基线提高了约4个BLEU点。代码和数据公开:https://github.com/HubReb/imitkd_ast/releases/tag/v1.1%R10.18653/v1/2023.iwslt-1.4%U型https://aclantology.org/2023.iwslt-1.4%U型https://doi.org/10.18653/v1/2023。iwslt-1.4%电话:89-101
降价(非正式)
[通过使用合成文本进行基于模仿的知识提取来改进端到端语音翻译](https://aclantology.org/2023.iwslt-1.4)(Hubert等人,IWSLT 2023)
国际计算语言学协会
- Rebekka Hubert、Artem Sokolov和Stefan Riezler。2023利用合成文本进行基于模仿的知识提取,改进端到端语音翻译.英寸第20届国际口语翻译大会(IWSLT 2023)会议记录,第89-101页,加拿大多伦多(个人和在线)。计算语言学协会。