@进行中{lai-etal-2021学习,title=“通过少量快照任务学习原型表示以进行事件检测”,author=“赖、越南和德农考特、弗兰克和Nguyen,Thien Huu“,editor=“Moens、Marie-Francine和黄、宣静、Specia、Lucia和Yeh,Scott Wen-tau“,booktitle=“2021年自然语言处理实证方法会议记录”,月=11月,年=“2021”,address=“多米尼加共和国Online和Punta Cana”,publisher=“计算语言学协会”,url=“https://aclantology.org/2021.emnlp-main.427”,doi=“10.18653/v1/2021.emnlp-main.427”,pages=“5270--5277”,抽象=“我们解决了信息提取子任务事件检测的少快照学习中的采样偏差和离群值问题。我们建议通过引入跨任务原型来建模情节少快照学习的训练任务之间的关系。我们进一步建议在任务间加强分类器之间的预测一致性,以使模型对异常值更加稳健。我们的大量实验表明,在三个少量的学习数据集上取得了一致的改进。研究结果表明,当新事件类型的标记数据有限时,我们的模型更加稳健。源代码位于\url{http://github.com/laiviet/fsl-proact}。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“lai-etal-2021-learning”><标题信息><title>通过少量快照任务学习原型表示以进行事件检测</titleInfo><name type=“personal”>越南赖<角色>作者</角色></name><name type=“personal”>弗兰克德隆考特<角色>作者</角色></name><name type=“personal”>蒂恩Huu(Huu)阮<namePart type=“family”>阮</namePart><角色>作者</角色></name><originInfo>发布日期:2021-11发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2021年自然语言处理实证方法会议记录</titleInfo><name type=“personal”>玛丽·弗朗辛莫恩斯<角色>编辑器</角色></name><name type=“personal”>轩辕<namePart type=“given”>黄<namePart type=“family”><角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>露西亚</namePart>Specia系列<角色>编辑器</角色></name><name type=“personal”>斯科特文涛<namePart type=“given”>文涛</namePart>Yih(Yih)<角色>编辑器</角色></name><originInfo><publisher>计算语言学协会</publisher><地点>在线和多米尼加共和国卡纳角</place></originInfo>会议出版物</relatedItem><abstract>我们解决了用于事件检测的少镜头学习中的采样偏差和异常值问题,这是信息提取的一个子任务。我们建议通过引入跨任务原型来建模情景少镜头学习中训练任务之间的关系。我们进一步建议跨任务加强分类器之间的预测一致性,以使模型对离群值更具鲁棒性。我们的大量实验表明,在三个少量的学习数据集上取得了一致的改进。研究结果表明,当新事件类型的标记数据有限时,我们的模型更加稳健。源代码位于http://github.com/laiviet/fsl-proact。</摘要>lai-etal-2021学习10.18653/v1/2021.emnlp-main.427<位置><网址>https://acl选集.org/2021.emnlp-main.427</url></位置><部分>2021-11年<扩展单元=“page”><开始>5270</开始><end>5277</范围></部分></模块></modsCollection>
%0会议记录%用于事件检测的少量快照任务的T学习原型表示%越南阿来%法兰克,德隆考特%阿阮,Thien Huu%玛丽·弗朗辛·Y·莫恩斯%Y Huang,宣景%露西娅·Y·斯佩西亚%Y Yih、Scott Wen-tau%2021年自然语言处理实证方法会议论文集%D 2021年%11月8日%计算语言学协会%C Online和Punta Cana,多米尼加共和国%F lai-etal-2021学习%我们解决了事件检测(信息提取的一个子任务)的少快照学习中的采样偏差和离群值问题。我们建议通过引入跨任务原型来建模情景少镜头学习中训练任务之间的关系。我们进一步建议跨任务加强分类器之间的预测一致性,以使模型对离群值更具鲁棒性。我们的大量实验表明,在三个少量的学习数据集上取得了一致的改进。研究结果表明,当新事件类型的标记数据有限时,我们的模型更加稳健。源代码位于http://github.com/laiviet/fsl-proact。%R 10.18653/v1/2021.emnlp-main.427%U型https://aclantology.org/2021.emnlp-main.427%U型https://doi.org/10.18653/v1/2021.emnlp-main.427%第5270-5277页
降价(非正式)
[通过少量快照任务学习用于事件检测的原型表示](https://aclantology.org/2021.emnlp-main.427)(Lai等人,EMNLP 2021)
国际计算语言学协会
- Viet Lai、Franck Dernoncourt和Thien Huu Nguyen。2021学习用于事件检测的少量快照任务的原型表示.英寸2021年自然语言处理实证方法会议记录,第5270–5277页,在线和多米尼加共和国卡纳角。计算语言学协会。