×

捷运局

swMATH ID: 43604
软件作者: 迈克·刘易斯(Mike Lewis)、刘银汉(Yinhan Liu)、纳曼·戈亚尔(Naman Goyal)、马詹·加兹维尼尼亚德(Marjan Ghazvininejad)、阿卜杜勒拉赫曼·穆罕默德(Abdelrahman Mohamed)、奥马尔·利维(Omer Levy
描述: BART:用于自然语言生成、翻译和理解的去噪序列对序列预训练。我们提出了BART,一种用于序列到序列模型预处理的去噪自动编码器。训练BART的方法是:(1)用任意的噪声函数破坏文本,(2)学习模型重建原始文本。它使用标准的基于变换器的神经机器翻译体系结构,尽管它很简单,但可以看作是对BERT(由于双向编码器)、GPT(具有左右解码器)和许多其他较新的预处理方案的推广。我们评估了许多降噪方法,通过随机改变原始句子的顺序和使用一种新颖的填充方案(其中文本跨度被替换为单个掩码标记)来找到最佳性能。当针对文本生成进行微调时,BART尤其有效,但对于理解任务也很有效。它将RoBERTa的表现与GLUE和SQuAD的可比培训资源相匹配,在一系列抽象对话、问答和总结任务上取得了最新的最先进成果,最多获得6个ROUGE。BART还比机器翻译的回译系统增加了1.1 BLEU,只需对目标语言进行预训练。我们还报告了在BART框架内复制其他预训练方案的消融实验,以更好地测量哪些因素对最终任务性能影响最大。
主页: https://arxiv.org/abs/1910.13461
关键词: arXiv_cs.LG公司;机器学习;arXiv_状态ML;顺序到顺序;培训前;自然语言生成
相关软件: BERT(误码率);罗伯塔;BERTS核心;SummaRuNNer公司;BiSET系列;GPT-3级;BabelNet公司;概念网;WordNet(文字网);佩加斯;XLNet公司;张紧器2传感器;手套;胭脂;单词2vec;维基Asp;SciREX公司;审查机器人;ScisummNet公司;真实
引用于: 6出版物

2篇连载文章中引用

人工智能研究杂志
2 人工智能

按年份列出的引文