GMU公司用于的系统IWSLT公司2023年方言和低资源语音翻译任务

乔纳森·姆布亚,安东尼奥斯·阿纳斯塔索普洛斯


摘要
本文描述了IWSLT 2023方言和低资源语音翻译任务的GMU系统。我们提交了五个低资源任务和方言任务的系统。在这项工作中,我们探索了自我监督的预训练语音模型,并在语音翻译下游任务中对其进行了微调。我们使用Wav2vec 2.0、XLSR-53和Hubert作为自监督模型。与Hubert不同,Wav2vec 2.0和XLSR-53在去掉前三层时取得了最佳效果。我们的结果表明,Wav2vec 2.0和Hubert的性能与其相对最佳配置相似。此外,我们发现Wav2vec 2.0在语音翻译模型中对与源语言相同语言的音频数据进行预处理可以获得更好的结果。对于低资源环境,无论是Wav2vec 2.0还是Hubert模型都能获得最佳结果,而XLSR-53在方言迁移任务中获得最佳结果。我们发现XLSR-53在低资源任务中表现不佳。使用Wav2vec 2.0,我们报告了与IWSLT 2022的基线系统相比,Tamasheq-French测试集上近2个BLEU点的改进。
选集ID:
2023.iwslt-1.24年
体积:
第20届国际口语翻译大会(IWSLT 2023)会议记录
月份:
七月
年份:
2023
地址:
加拿大多伦多(现场和在线)
编辑:
伊丽莎白·塞尔斯基,马塞洛·费德里科,海洋木瓜
地点:
IWSLT公司
SIG公司:
SIGSLT公司
出版商:
计算语言学协会
注:
页:
269–276
语言:
网址:
https://aclantology.org/2023.iwslt-1.24
内政部:
10.18653/v1/2023.iwslt-1.24
比比键:
引用(ACL):
乔纳森·姆布亚和安东尼奥斯·阿纳斯塔索普洛斯。2023IWSLT 2023方言和低资源语音翻译任务的GMU系统.英寸第20届国际口语翻译大会(IWSLT 2023)会议记录,第269–276页,加拿大多伦多(面对面和在线)。计算语言学协会。
引用(非正式):
IWSLT 2023方言和低资源语音翻译任务的GMU系统(Mbuya&Anastasopoulos,IWSLT 2023)
复制引文:
PDF格式:
https://aclantology.org/2023.iwslt-1.24.pdf