126发现的研究成果

    WMT17指标共享任务的结果

    获取PDF
    本文介绍了WMT17度量共享任务。我们问过本任务的参与者对参与WMT17新闻翻译任务和神经机器翻译训练任务。我们收集了分数来自8个研究小组的14个指标。除此之外,我们还计算了7个标准指标(BLEU、SentBLEU,NIST、WER、PER、TER和CDER)作为基线。收集的分数根据系统级相关性进行评估(每个指标的得分相关性如何WMT17官方手动排名系统)和部门层面相关性(指标与人类在判断特定句子的质量时)。今年,我们建立在两种类型的人工判断:直接评估(DA)和HUME人工语义判断

    理解词汇级语言注释在资源不足的神经机器翻译中的作用

    获取PDF
    本文研究了词汇级语言注释在源代码不足的神经机器翻译中的作用,但文献中对此没有充分的证据。该研究涵盖了八种语言对、不同的训练语料库大小、两种结构和三种注释类型:虚拟标记(完全没有语言信息)、部分话语标记和形态-句法描述标记,它们由词性和形态特征组成。这些语言注释在输入或输出流中交错排列,作为单个标记放置在每个单词之前。为了测量每个场景下的性能,我们使用自动评估指标并执行自动错误分类。我们的实验表明,一般来说,源语言注释是有用的,对于某些语言对来说,形态语法描述优于词性描述。相反,当在目标语言中对单词进行注释时,就自动评估指标而言,即使使用形态-语法描述标签可以提高输出的语法性,但部分语言标签在系统上仍优于形态-句法描述标签。我们对这一结果背后的原因进行了详细分析。根据第825299号赠款协议,由欧盟地平线2020研究和创新计划资助的工作,全球资源不足媒体翻译(GoURMET)项目

    WMT17神经机器翻译训练任务的结果

    获取PDF
    本文介绍了WMT17神经机器翻译训练任务的结果。本任务的目标是探索训练固定神经结构的方法,主要目的是获得最佳翻译质量,其次是缩短训练时间。为任务参与者提供了完整的神经机器翻译系统、固定的训练数据和网络配置。翻译是在英语到捷克语的方向上进行的,任务分为两个不同配置的子任务——一个扩展到4GB,另一个扩展至8GB GPU卡。我们收到了3份4GB变型的提交文件和1份8GB变型提交文件;我们还提供了每个尺寸和两个基线的运行情况。我们使用经过训练的模型转换测试集,并使用几个自动度量来评估输出。我们还报告了所提交系统的人类评估结果
    核心核心