980发现的研究成果

    神经机器翻译的域控制

    全文链接
    机器翻译系统对它们所在的领域非常敏感对几种领域自适应技术进行了深入研究。我们提出一种新的神经机器翻译(NMT)技术,我们称之为使用唯一的神经网络在运行时执行的域控制覆盖多个领域。提出的方法显示了质量改进与在任何覆盖域上翻译的专用域相比甚至是域外数据。此外,模型参数不需要对每个域进行重新估计,使其对实际用例有效。对两种不同的英法翻译进行评估测试场景。我们首先考虑最终用户执行已知域上的翻译。其次,我们考虑的场景是在翻译之前,领域在句子层面上是未知的和不可预测的。结果表明,两种条件下的精度都得到了一致的提高。注释:发布于RANLP 201

    多语言神经机器翻译中的迁移学习动态词汇

    全文链接
    我们提出了一种跨神经机器翻译传递知识的方法(NMT)通过共享动态词汇表建立模型。我们的方法允许通过以下方式扩展给定语言对的初始模型以覆盖新语言只要有新数据可用,就调整其词汇表(即引入如果初始模型中没有包含新词汇表项)。这个参数传递机制在两种情况下进行评估:i)适应经过培训的单语言NMT系统与新的语言对一起工作,ii)不断添加新的语言对,以发展成为多语言NMT系统。我们的目标是提高翻译性能,而最小化训练收敛时间。五项初步实验具有不同训练数据大小的语言(即5k和50k并行句子)表现出从+3.85到+13.63的显著性能提升不同语言方向的BLEU。此外,与培训相比从头开始的NMT模型,我们的转移学习方法允许我们达到训练后的表现更高,达到总训练步骤的4%。评论:发表于国际口语研讨会翻译(IWSLT),201

    神经语言生成中语言风格的控制

    全文链接
    大多数关于神经自然语言生成(NNLG)的工作都集中于控制生成文本的内容。我们试验控制几个生成的文本的文体方面,以及其内容。方法基于条件RNN语言模型,其中也包含所需的内容因为文体参数充当条件语境。我们演示了探讨电影评论领域并证明其在生成符合所需语言风格的连贯句子和内容

    神经编解码中输出长度的控制

    全文链接
    神经编解码模型在许多序列中都取得了巨大的成功生成任务。然而,之前的工作尚未调查我们希望控制编码器-解码器输出的长度。这个功能对于文本摘要等应用程序至关重要,在这些应用程序中,我们必须生成具有所需长度的简明摘要。在本文中,我们提出控制神经网络输出序列长度的方法编解码模型:两种基于解码的方法和两种基于学习的方法方法。结果表明,我们基于学习的方法有能力在摘要任务中控制长度而不降低摘要质量。评论:11页。出现在EMNLP 201中
    核心核心