学会消除歧义:M(M)eta-学习用于少量快速词义消歧

尼廷·霍拉,普什卡·米什拉,海伦·扬纳库达基斯,叶卡捷琳娜·舒托娃


摘要
深度学习方法的成功取决于为感兴趣的任务注释的大型训练数据集的可用性。与人类智能相比,这些方法缺乏通用性,难以学习和快速适应新任务,因为标记数据很少。元学习旨在通过对大量少量任务进行模型训练来解决这个问题,目的是从少量示例中快速学习新任务。在这篇文章中,我们提出了一个用于少量词义消歧(WSD)的元学习框架,其目标是学习从少数标记实例中消除看不见的单词的歧义。到目前为止,元学习方法通常在N方式、K镜头分类设置中进行测试,其中每个任务有N个类,每个类有K个示例。由于其性质,WSD偏离了这种受控设置,并要求模型处理大量高度不平衡的类。我们将几种流行的元学习方法扩展到这个场景中,并分析它们在这个新的挑战环境中的优势和劣势。
选集ID:
2020.发现-emnlp.405
体积:
计算语言学协会的研究结果:EMNLP 2020
月份:
十一月
年份:
2020
地址:
在线的
编辑:
特雷弗·科恩,何玉兰,杨柳
地点:
调查结果
SIG公司:
出版商:
计算语言学协会
注:
页:
4517–4533
语言:
网址:
https://aclantology.org/2020.findings-emnlp.405
内政部:
10.18653/v1/2020查找-emnlp.405
比比键:
引用(ACL):
Nithin Holla、Pushkar Mishra、Helen Yannakoudakis和Ekaterina Shutova。2020学会消除歧义:用于减少词义歧义的元学习.英寸计算语言学协会的研究结果:EMNLP 2020,第4517–4533页,在线。计算语言学协会。
引用(非正式):
学会消除歧义:用于减少词义歧义的元学习(Holla等人,《2020年调查结果》)
复制引文:
PDF格式:
https://aclantology.org/2020.findings-emnlp.405.pdf
代码
Nithin-Holla/MetaWSD公司+附加社区代码
数据
胶水词义消歧:一个统一的评价框架和实证比较