预处理模型的有效组合-配套元件@IWSLT公司2022

Ngoc-Quan Pham公司,团南阮,泰宾阮,Danni Liu(刘丹妮),卡洛斯·穆洛夫,简·尼休斯,亚历山大·威贝尔


摘要
声学和文本模式中的预训练模型可以潜在地改进级联和端到端方法的语音翻译。在本次评估中,我们旨在通过使用wav2vec、mBART50和DeltaLM模型来改进文本和语音翻译模型,从经验上寻找答案。实验表明,这些模型的存在以及先进的音频分割方法比以前的端到端系统提高了多达7个BLEU点。更重要的是,实验表明,如果有足够的数据和建模能力来克服训练困难,我们甚至可以超越竞争非常激烈的级联系统。在我们的实验中,这个差距可以大到2.0 BLEU点,这与Cascade多年来经常出现的差距相同。
选集ID:
2022.iwslt-1.14年
体积:
第19届国际口语翻译会议记录(IWSLT 2022)
月份:
五月
年份:
2022
地址:
爱尔兰都柏林(现场和在线)
编辑:
伊丽莎白·塞尔斯基,马塞洛·费德里科,Marta Costa-jussá
地点:
IWSLT公司
SIG公司:
SIGSLT公司
发布者:
计算语言学协会
注:
页:
190–197
语言:
网址:
https://aclantology.org/2022.iwslt-1.14
内政部:
10.18653/v1/2022.iwslt-1.14
比比键:
引用(ACL):
Ngoc Quan Pham、Tuan Nam Nguyen、Thai Binh Nguyen、Danni Liu、Carlos Mullov、Jan Niehues和Alexander Waibel。2022预处理模型的有效组合套件@IWSLT2022.英寸第19届国际口语翻译会议记录(IWSLT 2022),第190-197页,爱尔兰都柏林(同人和在线)。计算语言学协会。
引用(非正式):
预处理模型的有效组合套件@IWSLT2022(Pham等人,IWSLT 2022)
复制引文:
PDF格式:
https://aclantology.org/2022.iwslt-1.14.pdf
数据
如何2自由演讲MuST-C公司