@进行中{holla-etal-2020-学习,title=“学习消歧:{M}eta-Learning for Few-Shot Word Sense Disambiguation”,author=“Holla、Nithin和米什拉、普什卡和Yannakoudakis、Helen和叶卡捷琳娜·舒托娃“,editor=“科恩、特雷弗和他、玉兰和刘,杨“,booktitle=“计算语言学协会的发现:EMNLP 2020”,月=11月,年=“2020”,address=“在线”,publisher=“计算语言学协会”,url=“https://aclantology.org/2020.findings-emnlp.405”,doi=“10.18653/v1/2020.调查结果emnlp.405”,页码=“4517-4533”,抽象=“深度学习方法的成功取决于为感兴趣的任务注释的大型训练数据集的可用性。与人类智能相比,这些方法缺乏通用性,难以学习并快速适应标记数据稀缺的新任务。元学习旨在通过在大型训练模型上训练模型来解决此问题少量任务,目的是从少量示例中快速学习新任务。在这篇文章中,我们提出了一个用于少量词义消歧(WSD)的元学习框架,其目标是学习从少数标记实例中消除看不见的单词的歧义。到目前为止,元学习方法通常在N方式、K镜头分类设置中进行测试,其中每个任务有N个类,每个类有K个示例。由于其性质,WSD偏离了这种受控设置,并要求模型处理大量高度不平衡的类。我们将几种流行的元学习方法扩展到这个场景中,并分析它们在这个新的挑战环境中的优势和劣势。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“holla-etal-2020学习”><标题信息>学习消除歧义:元学习减少词义歧义</titleInfo><name type=“personal”>Nithin霍拉<角色>作者</角色></name><name type=“personal”>Pushkar米什拉<角色>作者</角色></name><name type=“personal”>海伦Yannakoudakis<角色>作者</角色></name><name type=“personal”>叶卡捷琳娜舒托娃<角色>作者</角色></name><originInfo><发布日期>2020-11</发布日期></originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会的发现:EMNLP 2020</titleInfo><name type=“personal”>特雷弗科恩<角色>编辑器</角色></name><name type=“personal”>玉兰他<角色>编辑器</角色></name><name type=“personal”>杨(Yang)<namePart type=“family”>刘</namePart><角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线</place></originInfo><type-authority=“marcgt”>会议出版物</type></relatedItem>深度学习方法的成功取决于为感兴趣的任务注释的大型训练数据集的可用性。与人类智能相比,这些方法缺乏通用性,难以学习和快速适应新任务,因为标记数据很少。元学习旨在通过对大量少量任务进行模型训练来解决这个问题,目的是从少量示例中快速学习新任务。在这篇文章中,我们提出了一个用于少量词义消歧(WSD)的元学习框架,其目标是学习从少数标记实例中消除看不见的单词的歧义。到目前为止,元学习方法通常在N方式、K镜头分类设置中进行测试,其中每个任务有N个类,每个类有K个示例。由于其性质,WSD偏离了这种受控设置,并要求模型处理大量高度不平衡的类。我们将几种流行的元学习方法扩展到这个场景中,并分析它们在这个新的挑战环境中的优势和劣势</摘要>holla-etal-2020学习10.18653/v1/2020。findings-emnlp.405<位置><网址>https://aclantology.org/2020.findings-emnlp.405</url></位置><部分><日期>2020-11</date><扩展单元=“page”><开始>4517</开始><end>4533</end></范围></部分></mods></modsCollection>
%0会议记录%学习消除歧义:元学习减少词义歧义%阿霍拉,尼辛%普什卡·A Mishra%A Yannakoudakis,海伦%叶卡捷琳娜·舒托娃%特雷弗·Y·科恩%Yu He,玉兰%Y Liu,杨%计算语言学协会的研究结果:EMNLP 2020%D 2020年%11月8日%计算语言学协会%C在线%F holla-etal-2020学习%X深度学习方法的成功取决于为感兴趣的任务注释的大型训练数据集的可用性。与人类智能相比,这些方法缺乏通用性,难以学习和快速适应新任务,因为标记数据很少。元学习旨在通过对大量少量任务进行模型训练来解决这个问题,目的是从少量示例中快速学习新任务。在这篇文章中,我们提出了一个用于少量词义消歧(WSD)的元学习框架,其目标是学习从少数标记实例中消除看不见的单词的歧义。到目前为止,元学习方法通常在N方式、K镜头分类设置中进行测试,其中每个任务有N个类,每个类有K个示例。由于其性质,WSD偏离了这种受控设置,并要求模型处理大量高度不平衡的类。我们将几种流行的元学习方法扩展到这个场景中,并分析它们在这个新的挑战环境中的优势和劣势。%R 10.18653/v1/2020.查找-emnlp.405%U型https://aclantology.org/2020.findings-emnlp.405%U型https://doi.org/10.18653/v1/2020.findings-emnlp.405%电话:4517-4533
降价(非正式)
[学习消除歧义:元学习减少词义歧义](https://aclantology.org/2020.findings-emnlp.405)(Holla等人,《2020年调查结果》)
国际计算语言学协会
- Nithin Holla、Pushkar Mishra、Helen Yannakoudakis和Ekaterina Shutova。2020学会消除歧义:少词义消除歧义的元学习.英寸计算语言学协会的研究结果:EMNLP 2020,第4517–4533页,在线。计算语言学协会。