@进行中{zhang-etal-2024-kcl,title=“{KCL}:Few-shot命名实体识别与知识图和对比学习”,author=“张、珊和曹斌和范靖“,editor=“Calzolari、Nicoletta和菅直人、敏妍和Hoste、Veronique和伦奇、亚历山德罗和Sakti、Sakriani和薛念文“,booktitle=“2024年计算语言学、语言资源和评估联合国际会议(LREC-COLING 2024)会议记录”,月=5月,年=“2024”,address=“意大利都灵”,publisher=“ELRA和ICCL”,url=“https://aclantology.org/2024.lrec-main.846",pages=“9681--9692”,abstract=“命名实体识别(NER)是自然语言处理(NLP)中的一个关键子任务,仅限于少数标记样本(也称为few-shot)基于度量的元学习方法旨在学习语义空间,并根据实体表示的相似性将实体分配给其最近的标签。然而,这些方法在语义空间学习方面存在困难,导致性能不理想。具体来说,标签名称或其描述被广泛用于标签语义表示学习,但从现有标签描述中提取的标签信息有限。此外,这些方法侧重于减少实体与相应标签之间的距离,这也可能会减少标签之间的间距,从而导致错误分类。在本文中,我们提出了一种利用知识图和对比学习的能力改进原型语义空间学习的少快照NER方法。首先,KCL利用知识图为标签语义表示学习提供丰富的结构化标签信息。然后,KCL引入对比学习的思想来学习标签的语义表示。标签语义表示用于帮助区分原型语义空间中的标签簇,以减少误分类。大量实验表明,KCL比最先进的方法取得了显著的改进。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“zhang-etal-2024-kcl”><标题信息>KCL:使用知识图和对比学习进行少量命名实体识别</title信息><name type=“personal”><namePart type=“given”>珊<namePart type=“family”>张</namePart><角色>作者</角色></name><name type=“personal”>箱子曹(Cao)<角色>作者</角色></name><name type=“personal”>京风扇<角色>作者</角色></name><originInfo><dateIssue>2024-05</dateIssue>发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2024年计算语言学、语言资源和评估联合国际会议(LREC-COLING 2024)会议记录</title信息><name type=“personal”>尼科莱塔卡尔佐拉里<角色>编辑器</角色></name><name type=“personal”>民日元菅直人<角色>编辑器</角色></name><name type=“personal”>维罗尼克主机<角色>编辑器</角色></name><name type=“personal”>亚历山德罗伦奇<角色>编辑器</角色></name><name type=“personal”>萨基里亚尼语萨克蒂<角色>编辑器</角色></name><name type=“personal”>年文薛(音译)<角色>编辑器</角色></name><originInfo><publisher>ELRA和ICCL</publisher><位置>意大利都灵</place></originInfo>会议出版物</relatedItem>命名实体识别(NER)作为自然语言处理(NLP)中的一个关键子任务,仅限于少数标记样本(也称为少量快照)。基于度量的元学习方法旨在学习语义空间,并根据实体表示的相似性将实体分配给其最近的标签。然而,这些方法在语义空间学习方面存在困难,导致性能不理想。具体来说,标签名称或其描述被广泛用于标签语义表示学习,但从现有标签描述中提取的标签信息有限。此外,这些方法侧重于减少实体与相应标签之间的距离,这也可能会减少标签之间的间距,从而导致错误分类。在本文中,我们提出了一种利用知识图和对比学习的能力改进原型语义空间学习的少快照NER方法。首先,KCL利用知识图为标签语义表示学习提供丰富的结构化标签信息。然后,KCL引入对比学习的思想来学习标签的语义表示。标签语义表示用于帮助区分原型语义空间中的标签簇,以减少误分类。大量实验表明,KCL比最先进的方法取得了显著的改进</摘要><identifier type=“citekey”>zhang-etal-2024-kcl</identifier><位置><网址>https://acl选集.org/2024.lrec-main.846</url></位置><部分><日期>2024-05</日期><扩展单元=“page”><开始>96819692</范围></部分></mods></modsCollection>
%0会议记录%T KCL:基于知识图和对比学习的少量命名实体识别%阿章、珊%阿曹、宾%阿凡,静%尼科莱塔·Y·卡尔佐拉里%Y Kan、Min Yen%Y Hoste,维罗妮克%亚历山德罗·伦奇%Y Sakti、Sakriani%Y Xue,念文%2024年计算语言学、语言资源和评估联合国际会议记录(LREC-COLING 2024)%D 2024年%5月8日%I ELRA和ICCL%C都灵,意大利%F zhang-etal-2024-kcl%X命名实体识别(NER)作为自然语言处理(NLP)中的一个关键子任务,仅限于少数标记样本(也称为少量快照)。基于度量的元学习方法旨在学习语义空间,并根据实体表示的相似性将实体分配给其最近的标签。然而,这些方法在语义空间学习方面存在困难,导致性能不理想。具体来说,标签名称或其描述被广泛用于标签语义表示学习,但从现有标签描述中提取的标签信息有限。此外,这些方法侧重于减少实体与相应标签之间的距离,这也可能会减少标签之间的间距,从而导致错误分类。在本文中,我们提出了一种利用知识图和对比学习的能力改进原型语义空间学习的少快照NER方法。首先,KCL利用知识图为标签语义表示学习提供丰富的结构化标签信息。然后,KCL引入对比学习的思想来学习标签的语义表示。标签语义表示用于帮助区分原型语义空间中的标签簇,以减少误分类。大量实验表明,KCL比最先进的方法取得了显著的改进。%U型https://aclantology.org/2024.lrec-main.846%电话:9681-9692
降价(非正式)
[KCL:Few-shot命名实体识别与知识图和对比学习](https://aclantology.org/2024.lrec-main.846)(Zhang等人,LREC-COLING 2024)
国际计算语言学协会