@正在进行{gu-etal-2020系列,title=“训练无恶意:任务引导的训练前选择性掩蔽”,author=“顾、蔚县和张正燕和王晓志和刘志远和孙茂松”,editor=“韦伯、邦妮和科恩、特雷弗和他、玉兰和刘,杨“,booktitle=“2020年自然语言处理实证方法会议论文集”,月=11月,年=“2020”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclantology.org/2020.emnlp-main.566",doi=“10.18653/v1/2020.emnlp-main.566”,pages=“6966--6974”,抽象=“最近,预训练语言模型大多遵循预训练-连续调整范式,并在各种下游任务上取得了很好的性能。然而,由于预训练阶段通常是任务认知阶段,而微调阶段通常缺乏监督数据,因此模型不能总是很好地捕获领域-特定和任务特定的模式。在本文中,我们提出了一个三阶段框架,通过在一般预训练和微调之间添加一个带有选择性掩蔽的任务引导预训练阶段。在此阶段,通过对域内无监督数据进行屏蔽语言建模来训练模型,以学习特定于域的模式,我们提出了一种新的选择性屏蔽策略来学习特定于任务的模式。具体来说,我们设计了一种方法来测量序列中每个标记的重要性,并选择性地屏蔽重要标记。在两个情感分析任务上的实验结果表明,我们的方法可以在不到50{%}的计算开销下获得相当甚至更好的性能,这表明我们的方法是有效的。本文的源代码可以从\url获得{https://github.com/thunlp/SelectiveMasking网站}.",}
<?xml版本=“1.0”编码=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“gu-etal-2020列车”><标题信息>训练无恶意:任务引导的训练前选择性掩蔽</titleInfo><name type=“personal”><namePart type=“given”>蔚县</namePart>顾<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><name type=“personal”>郑彦<namePart type=“family”>张<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><name type=“personal”><namePart type=“given”>小智王<namePart type=“family”><角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><name type=“personal”>致远<namePart type=“given”>刘<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><name type=“personal”>毛松太阳<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><originInfo><发布日期>2020-11</发布日期></originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2020年自然语言处理实证方法会议记录</titleInfo><name type=“personal”>邦妮韦伯<namePart type=“family”>Webber</namePart><角色><roleTerm authority=“marcorrator”type=“text”>编辑器</roleTerm></角色></name><name type=“personal”><namePart type=“given”>特雷弗</namePart>科恩<角色><roleTerm authority=“marcorrator”type=“text”>编辑器</roleTerm></角色></name><name type=“personal”>玉兰他<角色><roleTerm authority=“marcorrator”type=“text”>编辑器</roleTerm></角色></name><name type=“personal”>杨(Yang)刘<角色><roleTerm authority=“marcorrator”type=“text”>编辑器</roleTerm></角色></name><originInfo>计算语言学协会<位置>在线</place></originInfo>会议出版物</relatedItem><abstract>最近,预训练的语言模型大多遵循先预训练后微调的范式,并在各种下游任务上取得了良好的性能。然而,由于预培训阶段通常是任务认知阶段,而微调阶段通常受监管数据不足的影响,因此模型无法始终很好地捕捉特定领域和特定任务的模式。在本文中,我们提出了一个三阶段框架,通过在一般预训练和微调之间添加一个带有选择性掩蔽的任务引导预训练阶段。在此阶段,通过对域内无监督数据进行屏蔽语言建模来训练模型,以学习特定于域的模式,我们提出了一种新的选择性屏蔽策略来学习特定于任务的模式。具体来说,我们设计了一种方法来测量序列中每个标记的重要性,并选择性地屏蔽重要标记。在两个情绪分析任务上的实验结果表明,我们的方法可以在不到50%的计算开销的情况下获得相当甚至更好的性能,这表明我们的方法是有效的。本文的源代码可以从https://github.com/thunlp/SelectiveMasking。</摘要>gu-etal-2020列车10.18653/v1/2020。emnlp-main.566<位置><网址>https://aclantology.org/2020.emnlp-main.566</url></位置><部分><日期>2020-11</date><扩展单元=“page”><开始>6966</开始><end>6974</范围></部分></模块></modsCollection>
%0会议记录%T训练无恶意:任务引导的训练前选择性掩蔽%蔚县阿古%A Zhang,郑艳%王小志%刘志远%孙茂松%Y Webber,邦妮%特雷弗·Y·科恩%Yu He,玉兰%Y Liu、Yang%2020年自然语言处理实证方法会议论文集%D 2020年%11月8日%计算语言学协会%C在线%F gu-etal-2020系列%最近,预训练的语言模型大多遵循先预训练后微调的范式,并在各种下游任务上取得了良好的性能。然而,由于预培训阶段通常是任务认知阶段,而微调阶段通常受监管数据不足的影响,因此模型无法始终很好地捕捉特定领域和特定任务的模式。在本文中,我们提出了一个三阶段框架,通过在一般预训练和微调之间添加一个带有选择性掩蔽的任务引导预训练阶段。在此阶段,通过对域内无监督数据进行屏蔽语言建模来训练模型,以学习特定于域的模式,我们提出了一种新的选择性屏蔽策略来学习特定于任务的模式。具体来说,我们设计了一种方法来测量序列中每个标记的重要性,并选择性地屏蔽重要标记。在两个情绪分析任务上的实验结果表明,我们的方法可以在不到50%的计算开销的情况下获得相当甚至更好的性能,这表明我们的方法是有效的。本文的源代码可以从https://github.com/thunlp/SelectiveMasking。%R 10.18653/v1/202.emnlp-最小值.566%U型https://aclantology.org/2020.emnlp-main.566%U型https://doi.org/10.18653/v1/2020.emnlp-main.566%电话:6966-6974
降价(非正式)
【不训练邪恶:任务引导的预训选择性戴口罩】(https://aclantology.org/2020.emnlp-main.566)(Gu等人,EMNLP 2020)
国际计算语言学协会