@正在进行{huzaifah-etal-2023-i2rs,title=“用于{IWSLT}2023离线共享任务的{I}2{R}{'}端到端语音翻译系统”,author=“Huzaifah,穆罕默德和Min Tan、Kye和段日成”,editor=“Salesky、Elizabeth和费德里科、马塞洛和Carpuat,Marine“,booktitle=“第20届国际口语翻译会议(IWSLT 2023)论文集”,月=七月,年=“2023”,address=“加拿大多伦多(当面和在线)”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.iwslt-1.16”,doi=“10.18653/v1/2023.iwslt-1.16”,页码=“202--210”,abstract=“本文描述了I2R{'}提交给IWSLT 2023离线语音翻译轨道的情况。我们将重点放在从英语音频到德语文本的端到端翻译方法上,这是今年{'}版的三个可用语言方向之一。I2R系统利用了预处理模型,这些模型已经暴露在我们的基本模型的大规模音频和文本数据中。我们引入了几个额外的预训练阶段,然后进行微调,以使系统适应下游语音翻译任务。该策略还辅以其他技术,如数据增强、领域标记、知识提取和模型集成等。我们在几个公开可用的测试集上评估系统,以进行比较。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“网址:http://www.loc.gov/mods/v3"><mods ID=“huzaifah-etal-2023-i2rs”><标题信息>I2R的IWSLT 2023离线共享任务端到端语音翻译系统</titleInfo><name type=“personal”>穆罕默德Huzaifah<角色>作者</角色></name><name type=“personal”><namePart type=“给定”>Kye</namePart>Min Tan<角色>作者</角色></name><name type=“personal”>理成<namePart type=“given”>段<角色>作者</角色></name><originInfo>发布日期:2023-07发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息><title>第20届国际口语翻译大会论文集(IWSLT 2023)</title></titleInfo><name type=“personal”>伊丽莎白Salesky公司<角色>编辑器</角色></name><name type=“personal”>马塞洛费德里科<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>海洋</namePart>卡普阿特<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>加拿大多伦多(同人和在线)</place></originInfo>会议出版物</relatedItem>本文描述了I2R提交给IWSLT 2023离线语音翻译轨道的情况。我们专注于从英语音频到德语文本的端到端翻译方法,这是今年版的三个可用语言方向之一。I2R系统利用了预处理模型,这些模型已经暴露在我们的基本模型的大规模音频和文本数据中。我们引入了几个额外的预训练阶段,然后进行微调,以使系统适应下游语音翻译任务。该策略还辅以其他技术,如数据增强、领域标记、知识提取和模型集成等。我们在几个公开可用的测试集上评估系统,以进行比较</摘要>huzaifah-etal-2023-i2rs10.18653/v1/2023.iwslt-1.16<位置><网址>https://acl选集.org/2023.iwslt-1.16</url></位置><部分>2023-07年<扩展单元=“page”><开始>202</开始><end>210</范围></部分></模块></modsCollection>
%0会议记录%TI2R的IWSLT 2023离线共享任务端到端语音翻译系统%穆罕默德·A Huzaifah%阿敏·谭,凯伊%阿段,李成%Y Salesky,伊丽莎白%Y Federico,马塞洛%Y Carpuat,海军%第20届国际口语翻译会议(IWSLT 2023)%D 2023年%7月8日%计算语言学协会%C加拿大多伦多(同人和在线)%F huzaifah-etal-2023-i2rs基因%X本文描述了I2R提交给IWSLT 2023离线语音翻译轨道的情况。我们专注于从英语音频到德语文本的端到端翻译方法,这是今年版的三个可用语言方向之一。I2R系统利用了预处理模型,这些模型已经暴露在我们的基本模型的大规模音频和文本数据中。我们引入了几个额外的预训练阶段,然后进行微调,以使系统适应下游语音翻译任务。该策略还辅以其他技术,如数据增强、领域标记、知识提取和模型集成等。我们在几个公开可用的测试集上评估系统,以进行比较。%R10.18653/v1/2023.iwslt-1.16%U型https://acl选集.org/2023.iwslt-1.16%U型https://doi.org/10.18653/v1/2023.iwslt-1.16%电话202-210
降价(非正式)
【I2R的IWSLT 2023离线共享任务端到端语音翻译系统】(https://acl选集.org/2023.iwslt-1.16)(Huzaifah等人,IWSLT 2023)
国际计算语言学协会
- 穆罕默德·胡扎法赫(Muhammad Huzaifah)、凯敏·谭(Kye Min Tan)和段丽成(Richeng Duan)。2023I2R的IWSLT 2023离线共享任务端到端语音翻译系统.英寸第20届国际口语翻译大会(IWSLT 2023)会议记录,第202-210页,加拿大多伦多(个人和在线)。计算语言学协会。