@正在进行{mbuya-anastasopoulos-2023-gmu,title=“用于{IWSLT}2023方言和低资源语音翻译任务的{GMU}系统”,author=“姆布亚、乔纳森和安纳斯塔索普洛斯(Anastasopoulos,Antonios)“,editor=“Salesky、Elizabeth和费德里科、马塞洛和Carpuat,Marine“,booktitle=“第20届国际口语翻译会议(IWSLT 2023)论文集”,月=七月,年=“2023”,address=“加拿大多伦多(当面和在线)”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.iwslt-1.24”,doi=“10.18653/v1/2023.iwslt-1.24”,pages=“269--276”,抽象=“本文描述了IWSLT 2023方言和低资源语音翻译任务的GMU系统。我们提交了五个低资源任务和方言任务的系统。在这项工作中,我们探索了自我监督的预训练语音模型,并在语音翻译下游任务中对其进行了微调。我们使用Wav2vec 2.0、XLSR-53和Hubert作为自监督模型。与Hubert不同,Wav2vec 2.0和XLSR-53在去掉前三层时取得了最佳效果。我们的结果表明,Wav2vec 2.0和Hubert的性能与其相对最佳配置相似。此外,我们发现Wav2vec 2.0在语音翻译模型中对与源语言相同语言的音频数据进行预处理可以获得更好的结果。对于低资源设置,使用Wav2vec 2.0或Hubert模型可以获得最佳结果,而XLSR-53在方言转换任务中获得最佳结果。我们发现XLSR-53在低资源任务中表现不佳。使用Wav2vec 2.0,与IWSLT 2022的基线系统相比,我们报告了Tamasheq-French测试集上近2个BLEU点的改进。”,}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“mbuya-anastasopoulos-2023-gmu”><标题信息>IWSLT 2023方言和低资源语音翻译任务的GMU系统</titleInfo><name type=“personal”>乔纳森姆布亚<角色>作者</角色></name><name type=“personal”>安东尼奥斯阿纳斯塔索普洛斯<角色>作者</角色></name><originInfo>发布日期:2023-07发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息><title>第20届国际口语翻译大会论文集(IWSLT 2023)</title></titleInfo><name type=“personal”>伊丽莎白Salesky公司<角色>编辑器</角色></name><name type=“personal”>马塞洛费德里科<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>海洋</namePart>卡普阿特<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>加拿大多伦多(同人和在线)</place></originInfo><type-authority=“marcgt”>会议出版物</type></relatedItem>本文描述了IWSLT 2023方言和低资源语音翻译任务的GMU系统。我们提交了五个低资源任务和方言任务的系统。在这项工作中,我们探索了自我监督的预训练语音模型,并在语音翻译下游任务中对其进行了微调。我们使用Wav2vec 2.0、XLSR-53和Hubert作为自监督模型。与Hubert不同,Wav2vec 2.0和XLSR-53在去掉前三层时取得了最佳效果。我们的结果表明,Wav2vec 2.0和Hubert的性能与其相对最佳配置相似。此外,我们发现Wav2vec 2.0在语音翻译模型中对与源语言相同语言的音频数据进行预处理可以获得更好的结果。对于低资源环境,无论是Wav2vec 2.0还是Hubert模型都能获得最佳结果,而XLSR-53在方言迁移任务中获得最佳结果。我们发现XLSR-53在低资源任务中表现不佳。使用Wav2vec 2.0,与IWSLT 2022的基线系统相比,我们报告了Tamasheq-French测试集上近2个BLEU点的改进。</abstract>mbuya-anastasopoulos-2023-gmu<identifier type=“doi”>10.18653/v1/2023。iwslt-1.24</identifier><位置><网址>https://aclantology.org/2023.iwslt-1.24</url></位置><部分>2023-07年<扩展单元=“page”><开始>269<end>276</范围></部分></mods></modsCollection>
%0会议记录%IWSLT 2023方言和低资源语音翻译任务的T GMU系统%乔纳森·姆布亚%安纳斯塔索普洛斯%Y Salesky,伊丽莎白%Y Federico,马塞洛%Y Carpuat,海军%第20届国际口语翻译会议(IWSLT 2023)%D 2023年%7月8日%计算语言学协会%C加拿大多伦多(同人和在线)%F mbuya-anastasopoulos-2023-gmu公司%X本文描述了用于IWSLT2023方言和低资源语音翻译任务的GMU系统。我们提交了五个低资源任务和方言任务的系统。在这项工作中,我们探索了自我监督的预训练语音模型,并在语音翻译下游任务中对其进行了微调。我们使用Wav2vec 2.0、XLSR-53和Hubert作为自监督模型。与Hubert不同,Wav2vec 2.0和XLSR-53在去掉前三层时取得了最佳效果。我们的结果表明,Wav2vec 2.0和Hubert的性能与其相对最佳配置相似。此外,我们发现Wav2vec 2.0在语音翻译模型中对与源语言相同语言的音频数据进行预处理可以获得更好的结果。对于低资源环境,无论是Wav2vec 2.0还是Hubert模型都能获得最佳结果,而XLSR-53在方言迁移任务中获得最佳结果。我们发现XLSR-53在低资源任务中表现不佳。使用Wav2vec 2.0,我们报告了与IWSLT 2022的基线系统相比,Tamasheq-French测试集上近2个BLEU点的改进。%R10.18653/v1/2023.iwslt-1.24%U型https://aclantology.org/2023.iwslt-1.24%U型https://doi.org/10.18653/v1/2023.iwslt-1.24%第269-276页
降价(非正式)
[IWSLT 2023方言和低资源语音翻译任务的GMU系统](https://aclantology.org/2023.iwslt-1.24)(Mbuya&Anastasopoulos,IWSLT 2023)
国际计算语言学协会