国际标准协会 档案文件 2018年国际演讲
国际标准协会 档案文件 Interspeech 2018年

低延迟神经语音翻译

Jan Niehues、Ngoc-Quan Pham、Thanh-Le Ha、Matthias Sperber、Alex Waibel

通过神经机器翻译的发展,机器翻译系统的质量得到了显著提高。通过利用深度学习的进步,系统现在能够更好地近似从源句子到目标句子的复杂映射。但有了这种能力,新的挑战也随之出现。低延迟语音翻译中的部分句子翻译就是一个例子。由于该模型在训练中只看到完整的句子,因此它将始终尝试生成完整的句子(尽管输入可能只是部分句子)。我们表明,NMT系统可以适应没有特定任务训练数据的情况。此外,在不损失原始训练数据性能的情况下,这是可能的。我们通过创建人工数据和使用多任务学习来实现这一点。调整后,我们能够将增量输出构建期间显示的更正数量减少45%,而不会降低翻译质量。


doi:10.21437/Interspeech.2018-1055

引自:Niehues,J.、Pham,N.-Q、Ha,T.-L.、Sperber,M.、Waibel,A.(2018)《低延迟神经言语翻译》。程序。Interspeech 2018,1293-1297,doi:10.21437/Interspeech.2018-1055

@正在进行{niehues18_interspeech,作者={Jan Niethues和Ngoc Quan Pham和Thanh Le Ha以及Matthias Sperber和Alex Waibel},title={{低延迟神经语音翻译}},年份=2018年,booktitle={Proc.Interspeech 2018},页数={1293--1297},doi={10.21437/Interspeech.2018-1055},issn={2308-457X}}