×

捷运局

swMATH ID: 43604
软件作者: 迈克·刘易斯(Mike Lewis)、刘银汉(Yinhan Liu)、纳曼·戈亚尔(Naman Goyal)、马詹·加兹维尼尼亚德(Marjan Ghazvininejad)、阿卜杜勒拉赫曼·穆罕默德(Abdelrahman Mohamed)、奥马尔·利维(Omer Levy
描述: BART:用于自然语言生成、翻译和理解的去噪序列对序列预训练。我们提出了BART,一种用于序列到序列模型预处理的去噪自动编码器。BART是通过(1)用任意噪声函数破坏文本,以及(2)学习模型来重建原始文本来训练的。它使用标准的基于变换器的神经机器翻译体系结构,尽管它很简单,但可以看作是对BERT(由于双向编码器)、GPT(具有左右解码器)和许多其他较新的预处理方案的推广。我们评估了许多降噪方法,通过随机改变原始句子的顺序和使用一种新颖的填充方案(其中文本跨度被替换为单个掩码标记)来找到最佳性能。当针对文本生成进行微调时,BART尤其有效,但对于理解任务也很有效。它将RoBERTa的表现与GLUE和SQuAD的可比培训资源相匹配,在一系列抽象对话、问答和总结任务上取得了最新的最先进成果,最多获得6个ROUGE。BART还比机器翻译的回译系统增加了1.1 BLEU,只需对目标语言进行预训练。我们还报告了在BART框架内复制其他预训练方案的消融实验,以更好地测量哪些因素对最终任务性能影响最大。
主页: https://arxiv.org/abs/1910.13461
关键词: arXiv_cs。LG公司机器学习arXiv_状态ML顺序到顺序培训前自然语言生成
相关软件: 伯特罗伯塔GPT-3级单词2vec张紧器2传感器手套艾伯特变压器判决-BERTBioBERT公司SciBERT公司BERTS核心胭脂BLEU公司XLNet公司牦牛变压器XLSBERT公司ScisummNet公司TLDR公司
引用于: 11文件

按年份列出的引文