@正在进行{zhou-etal-2023提交,title=“提交{USTC}{'}的{IWSLT}2023系统-离线语音翻译轨道”,author=“周、新元和崔建伟Ye、Zhongyi和王、伊奇和Xu、Luzhen和张、韩毅和张伟泰戴丽蓉”,editor=“Salesky、Elizabeth和费德里科、马塞洛和Carpuat,海军陆战队”,booktitle=“第20届国际口语翻译大会论文集(IWSLT 2023)”,月=七月,年=“2023”,address=“加拿大多伦多(当面和在线)”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.iwslt-1.15”,doi=“10.18653/v1/2023.iwslt-1.15”,pages=“194--201”,抽象=“本文描述了研究小组USTC-NELSLIP向2023年IWSLT离线语音翻译比赛提交的材料,该比赛涉及将英语口语翻译成汉语书面语。我们在这项任务中使用了级联模型和端到端模型。为了提高级联模型的性能,我们引入了Whisper以减少错误或在中间源语言文本中,实现了ASR识别性能的显著提高。对于端到端模型,我们提出了堆叠声学和文本编码扩展(SATE-ex),该扩展将声学解码器的输出馈送到文本解码器以进行信息融合,并防止错误传播。此外,我们通过集成将SATE-ex模型与编码器-解码器模型相结合,提高了端到端系统的语音翻译性能。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“zhou-etal-2023提交”><标题信息>提交USTC的IWSLT 2023系统-离线语音翻译轨道</titleInfo><name type=“个人”><namePart type=“given”>鑫源</namePart><namePart type=“family”>周<角色>作者</角色></name><name type=“个人”>建伟<namePart type=“given”>崔<namePart type=“family”><角色>作者</角色></name><name type=“个人”>中意<namePart type=“given”>叶<角色>作者</角色></name><name type=“个人”>翼芝<namePart type=“given”>王<namePart type=“family”><角色>作者</角色></name><name type=“个人”>鲁镇<namePart type=“given”><namePart type=“family”>徐</namePart><角色>作者</角色></name><name type=“个人”>汉译<namePart type=“given”><namePart type=“family”>张<角色>作者</角色></name><name type=“个人”><namePart type=“given”>威泰<namePart type=“family”>张<角色>作者</角色></name><name type=“个人”>李蓉傣族<角色>作者</角色></name><originInfo>发布日期:2023-07发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第20届国际口语翻译大会(IWSLT 2023)会议记录</titleInfo><name type=“个人”>伊丽莎白Salesky公司<角色>编辑器</角色></name><name type=“个人”>马塞洛费德里科<角色>编辑器</角色></name><name type=“个人”><namePart type=“given”>海洋</namePart><namePart type=“family”>卡普瓦特</namePart><角色>编辑器</角色></name><originInfo>计算语言学协会<位置>加拿大多伦多(同人和在线)</place></originInfo>会议出版物</relatedItem>本文描述了研究小组USTC-NELSLIP向2023年IWSLT离线语音翻译比赛提交的材料,该比赛涉及将英语口语翻译为汉语书面语。我们将级联模型和端到端模型用于此任务。为了提高级联模型的性能,我们引入了Whisper来减少中间源语言文本中的错误,从而显著提高ASR识别性能。对于端到端模型,我们提出了堆叠声学和文本编码扩展(SATE-ex),该扩展将声学解码器的输出馈送到文本解码器以进行信息融合,并防止错误传播。此外,我们通过集成将SATE-ex模型与编码器-解码器模型相结合,提高了端到端系统的语音翻译性能</摘要>周星驰2023提交10.18653/v1/2023.iwslt-1.15<位置><网址>https://aclcollectory.org/2023.iwslt-1.15</url></位置><部分>2023-07年<扩展单元=“page”><开始>194201年年底</范围></部分></mods></modsCollection>
%0会议记录%T提交美国贸易代表办公室的系统用于IWSLT 2023-离线语音翻译轨道%新源阿洲%崔建伟%A Ye,忠义%阿王,伊奇%鲁镇阿旭%A Zhang,韩毅%A Zhang,威泰%阿岱、李荣%Y Salesky,伊丽莎白%Y Federico,马塞洛%Y Carpuat,海军%第20届国际口语翻译会议(IWSLT 2023)%D 2023年%7月8日%计算语言学协会%C加拿大多伦多(同人和在线)%F zhou-etal-2023提交%本文描述了研究小组USTC-NELSLIP向2023年IWSLT离线语音翻译比赛提交的材料,该比赛涉及将英语口语翻译为汉语书面语。我们将级联模型和端到端模型用于此任务。为了提高级联模型的性能,我们引入了Whisper来减少中间源语言文本中的错误,从而显著提高了ASR识别性能。对于端到端模型,我们提出了堆叠声学和文本编码扩展(SATE-ex),该扩展将声学解码器的输出馈送到文本解码器以进行信息融合,并防止错误传播。此外,我们通过集成将SATE-ex模型与编码器-解码器模型相结合,提高了端到端系统的语音翻译性能。%R 10.18653/v1/2023.iwslt-1.15%U型https://aclcollectory.org/2023.iwslt-1.15%U型https://doi.org/10.18653/v1/2023.iwslt-1.15%194-201页
降价(非正式)
【提交美国贸易代表办公室2023年IWSLT系统-离线语音翻译轨道】(https://aclcollectory.org/2023.iwslt-1.15)(Zhou等人,IWSLT 2023)
国际计算语言学协会