@正在进行{昭和电气-2020-稳健,title=“通过学习软标签实现强大的机器阅读理解”,author=“赵振宇Wu、Shuangzhi和Yang、Muyun和陈可海赵铁军”,editor=“Scott、Donia和贝尔、努里亚和宗成庆”,booktitle=“第28届国际计算语言学会议论文集”,月=12月,年=“2020”,address=“西班牙巴塞罗那(在线)”,publisher=“国际计算语言学委员会”,url=“https://aclantology.org/2020.coling-main.248”,doi=“10.18653/v1/2020.coling-main.248”,pages=“2754--2759”,文摘=“神经模型在机器阅读理解(MRC)任务中取得了巨大成功,通常使用硬标签进行培训。我们认为,由于标签稀疏问题,硬标签限制了模型的泛化能力。本文针对这一问题,提出了一种MRC模型的鲁棒训练方法。我们的方法包括三个策略,1)标签平滑,2)单词重叠,3)分布预测。所有这些都有助于在软标签上训练模特。我们在代表性体系结构ALBERT上验证了我们的方法。实验结果表明,我们的方法可以大大提高基线,平均提高1{\%},并在NewsQA和QUOREF上实现最先进的性能。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“网址:http://www.loc.gov/mods/v3"><mods ID=“zhao-etal-2020-robust”><标题信息>通过学习软标签实现稳健的机器阅读理解</title信息><name type=“personal”><namePart type=“given”>振宇</namePart><namePart type=“family”>赵</namePart><角色>作者</角色></name><name type=“personal”>双枝<namePart type=“given”>吴<角色>作者</角色></name><name type=“personal”>沐云<namePart type=“given”>杨<角色>作者</角色></name><name type=“personal”>科海<namePart type=“family”>陈</namePart><角色>作者</角色></name><name type=“personal”>铁军<namePart type=“family”>赵</namePart><角色>作者</角色></name><originInfo><发布日期>2020-12</发布日期></originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第28届国际计算语言学会议论文集</title信息><name type=“personal”>Donia(多尼亚)<namePart type=“family”>斯科特</namePart><角色>编辑器</角色></name><name type=“personal”>努里亚贝尔<角色>编辑器</角色></name><name type=“personal”>成清<namePart type=“given”>宗族<角色>编辑器</角色></name><originInfo>国际计算语言学委员会<地点>西班牙巴塞罗那(在线)</地点></originInfo>会议出版物</relatedItem>神经模型在机器阅读理解(MRC)任务中取得了巨大成功,MRC通常是在硬标签上训练的。我们认为,由于标签稀疏问题,硬标签限制了模型的泛化能力。本文针对这一问题,提出了一种MRC模型的鲁棒训练方法。我们的方法包括三个策略,1)标签平滑,2)单词重叠,3)分布预测。所有这些都有助于在软标签上训练模特。我们在代表性体系结构ALBERT上验证了我们的方法。实验结果表明,我们的方法可以大大提高基线,平均提高1%,并在NewsQA和QUOREF上实现最先进的性能</摘要><identifier type=“citekey”>zhao-etal-2020-稳健<identifier type=“doi”>10.18653/v1/2020。coling-main.248<位置><网址>https://aclantology.org/2020.coling-main.248</url></位置><部分>2020-12年<日期><扩展单元=“page”><开始>2754<end>2759</范围></部分></mods></modsCollection>
%0会议记录%通过学习软标签实现T鲁棒机器阅读理解%A Zhao、Zhenyu%阿武,双枝%阿扬、沐云%A Chen,科海%阿昭、铁军%多尼亚·Y·斯科特%努里亚·Y·贝尔%Y Zong、程青%第28届国际计算语言学会议论文集%D 2020年%12月8日%国际计算语言学委员会%C巴塞罗那,西班牙(在线)%F zhao-etal-2020-稳健%X神经模型在机器阅读理解(MRC)任务中取得了巨大的成功,MRC通常是在硬标签上训练的。我们认为,由于标签稀疏问题,硬标签限制了模型的泛化能力。本文针对这一问题,提出了一种MRC模型的鲁棒训练方法。我们的方法包括三个策略,1)标签平滑,2)单词重叠,3)分布预测。所有这些都有助于在软标签上训练模特。我们在具有代表性的架构ALBERT上验证了我们的方法。实验结果表明,我们的方法可以大大提高基线,平均提高1%,并在NewsQA和QUOREF上实现最先进的性能。%R 10.18653/v1/2020.coling-main.248号%U型https://aclantology.org/2020.coling-main.248%U型https://doi.org/10.18653/v1/2020.coling-main.248%电话:2754-2759
降价(非正式)
[通过学习软标签实现稳健的机器阅读理解](https://aclantology.org/2020.coling-main.248)(Zhao等人,COLING 2020)
国际计算语言学协会
- Zhenyu Zhao、Shuangzhi Wu、Muyun Yang、Kehai Chen和Tiejun Zhao。2020通过学习软标签实现鲁棒机器阅读理解.英寸第28届国际计算语言学会议论文集,第2754–2759页,西班牙巴塞罗那(在线)。国际计算语言学委员会。