学习用于事件检测的少量快照任务的原型表示

越南莱,弗兰克·德农考特,Thien Huu Nguyen先生


摘要
我们解决了信息提取子任务事件检测的少快照学习中的采样偏差和离群值问题。我们建议通过引入跨任务原型来建模情景少镜头学习中训练任务之间的关系。我们进一步建议跨任务加强分类器之间的预测一致性,以使模型对离群值更具鲁棒性。我们的大量实验表明,在三个少量的学习数据集上取得了一致的改进。研究结果表明,当新事件类型的标记数据有限时,我们的模型更加稳健。源代码位于http://github.com/laiviet/fsl-proact.
选集ID:
2021.emnlp-main.427年
体积:
2021年自然语言处理实证方法会议记录
月份:
十一月
年份:
2021
地址:
多米尼加共和国Online和Punta Cana
编辑:
玛丽·弗朗辛·莫恩斯,黄宣景,露西娅·斯佩西亚,斯科特·文涛(Scott Wen-tau Yih)
地点:
EMNLP公司
SIG公司:
出版商:
计算语言学协会
注:
页:
5270–5277
语言:
网址:
https://aclantology.org/2021.emnlp-main.427
内政部:
10.18653/v1/2021.emnlp-main.427
双钥匙:
引用(ACL):
Viet Lai、Franck Dernoncourt和Thien Huu Nguyen。2021学习用于事件检测的少量快照任务的原型表示.英寸2021年自然语言处理实证方法大会论文集,第5270–5277页,在线和多米尼加共和国卡纳角。计算语言学协会。
引用(非正式):
学习用于事件检测的少量快照任务的原型表示(Lai等人,EMNLP 2021)
复制引文:
PDF格式:
https://aclantology.org/2021.emnlp-main.427.pdf
视频:
 https://aclantology.org/2021.emnlp-main.427.mp4网址
代码
laiviet/fsl方案