@进行中{昭和塔尔-2020掩蔽,title=“屏蔽是预训练语言模型微调的有效替代方案”,author={赵、孟杰和林、陶和米、菲和贾吉、马丁和Sch{\“u}tze,印度语},editor=“韦伯、邦妮和科恩、特雷弗和他、玉兰和刘、杨”,booktitle=“2020年自然语言处理实证方法会议论文集”,月=11月,年=“2020”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclantology.org/2020.emnlp-main.174”,doi=“10.18653/v1/2020.emnlp-main.174”,pages=“2226--2241”,抽象=“我们提出了一种利用预处理语言模型的有效方法,其中我们学习预处理权重的选择性二进制掩码,而不是通过微调来修改它们。对11个不同NLP任务的屏蔽BERT、RoBERTa和DistilBERT的广泛评估表明,我们的屏蔽方案产生的性能与微调相当,但当需要推断多个任务时,内存占用要小得多。内在评估表明,由二进制屏蔽语言模型计算的表示编码了解决下游任务所需的信息。通过对损失情况的分析,我们发现掩蔽和微调产生的模型位于最小值,可以通过具有几乎恒定测试精度的线段连接。这证实了掩蔽可以作为微调的有效替代方案。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“zhao-etal-2020-mask”><标题信息><title>掩蔽作为预训练语言模型微调的有效替代方案</title></titleInfo><name type=“personal”>梦洁<namePart type=“given”>赵<namePart type=“family”><角色>作者</角色></name><name type=“personal”>道<namePart type=“family”>林</namePart><角色>作者</角色></name><name type=“personal”>飞<namePart type=“family”>米<角色>作者</角色></name><name type=“personal”>马丁贾吉<角色>作者</角色></name><name type=“personal”>辛里奇Schütze学校<角色>作者</角色></name><originInfo><发布日期>2020-11</发布日期></originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2020年自然语言处理实证方法会议记录</titleInfo><name type=“personal”>邦妮韦伯<namePart type=“family”>Webber</namePart><角色>编辑器</角色></name><name type=“personal”>特雷弗科恩<角色>编辑器</角色></name><name type=“personal”>玉兰他<角色>编辑器</角色></name><name type=“personal”>杨(Yang)刘<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线</place></originInfo>会议出版物</relatedItem><摘要>我们提出了一种利用预处理语言模型的有效方法,其中我们学习预处理权重的选择性二进制掩码,而不是通过微调修改它们。对11个不同NLP任务的掩蔽BERT、RoBERTa和DistilBERT的广泛评估表明,我们的掩蔽方案产生的性能与微调相当,但当需要推断多个任务时,内存占用要小得多。内在评估表明,由二进制屏蔽语言模型计算的表示编码了解决下游任务所需的信息。通过对损失情况的分析,我们发现掩蔽和微调产生的模型位于最小值,可以通过具有几乎恒定测试精度的线段连接。这证实了掩蔽可以作为微调的有效替代方案</摘要><identifier type=“citekey”>zhao-etal-2020-masking10.18653/v1/2020。emnlp-main.174<位置><网址>https://aclantology.org/2020.emnlp-main.174</url></位置><部分><日期>2020-11</date><扩展单元=“page”><开始>2226<end>2241</范围></部分></mods></modsCollection>
%0会议记录%T掩蔽作为预训练语言模型微调的有效替代方法%阿昭、孟杰%阿琳、陶%阿弥,费%马丁·贾吉%A Schütze,辛里奇%Y Webber,邦妮%特雷弗·科恩%Yu He,玉兰%Y Liu、Yang%2020年自然语言处理经验方法大会论文集(EMNLP)%D 2020年%11月8日%计算语言学协会%C在线%F昭塔尔-2020掩蔽%我们提出了一种利用预处理语言模型的有效方法,其中我们学习预处理权重的选择性二进制掩码,而不是通过微调修改它们。对11个不同NLP任务的掩蔽BERT、RoBERTa和DistilBERT的广泛评估表明,我们的掩蔽方案产生的性能与微调相当,但当需要推断多个任务时,内存占用要小得多。内在评估表明,由二进制屏蔽语言模型计算的表示编码了解决下游任务所需的信息。通过对损失情况的分析,我们发现掩蔽和微调产生的模型位于最小值,可以通过具有几乎恒定测试精度的线段连接。这证实了掩蔽可以作为微调的有效替代方案。%R 10.18653/v1/2020.emnlp-main.174号%U型https://aclantology.org/2020.emnlp-main.174%U型https://doi.org/10.18653/v1/2020.emnlp-main.174%电话2226-2241
降价(非正式)
[屏蔽是预训练语言模型微调的有效替代方法](https://aclantology.org/2020.emnlp-main.174)(Zhao等人,EMNLP 2020)
国际计算语言学协会
- 赵梦洁、陶琳、费米、马丁·贾吉和辛里希·舒茨。2020屏蔽作为预训练语言模型微调的有效替代方案.英寸2020年自然语言处理经验方法会议记录(EMNLP),第2226–2241页,在线。计算语言学协会。