@正在进行{zhang-etal-2021拍摄,title=“通过对比预训练和精细调整进行少量快照意图检测”,author=“张、建国和Bui、Trung和Yoon、Seunghyun和Chen、Xiang和刘志伟和夏聪颖和Tran、Quan Hung和Chang、Walter和Yu,Philip“,editor=“Moens、Marie-Francine和黄、玄静和Specia、Lucia和Yeh,Scott Wen-tau“,booktitle=“2021年自然语言处理实证方法会议记录”,月=11月,年=“2021”,address=“多米尼加共和国Online和Punta Cana”,publisher=“计算语言学协会”,url=“https://aclantology.org/2021.emnlp-main.144",doi=“10.18653/v1/2021.emnlp-main.144”,pages=“1906--1912”,抽象=“在这项工作中,我们将重点放在一个更具挑战性的少数意图检测场景中,其中许多意图都是细粒度和语义相似的。我们通过对比预训练和微调提出了一个简单而有效的少数意图检测模式。具体来说,我们首先对收集的意图数据进行自我监督的对比预训练数据集,它隐式学习在不使用任何标签的情况下区分语义相似的语句。然后,我们进行少量意图检测和有监督的对比学习,这明确地将来自同一意图的话语拉近,并将不同意图的话语推得更远。实验结果表明,在五镜头和十镜头设置下,我们提出的方法在三个具有挑战性的意图检测数据集上取得了最先进的性能。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“zhang-etal-2021-shot”><标题信息><title>通过对比预训练和精细调整实现的少量快照意图检测</titleInfo><name type=“个人”>建国<namePart type=“family”>张<角色>作者</角色></name><name type=“个人”>Trung<namePart type=“family”>Bui</namePart><角色>作者</角色></name><name type=“个人”><namePart type=“given”>Seunghyun</namePart>Yoon<角色>作者</角色></name><name type=“个人”><namePart type=“given”>项<namePart type=“family”>陈</namePart><角色>作者</角色></name><name type=“个人”>智伟<namePart type=“given”>刘<角色>作者</角色></name><name type=“个人”>聪颖夏<namePart type=“family”><角色>作者</角色></name><name type=“个人”><namePart type=“given”>权</namePart>挂起Tran系列<角色>作者</角色></name><name type=“个人”>沃尔特Chang(昌)<角色>作者</角色></name><name type=“个人”>菲利普<namePart type=“family”>余</namePart><角色>作者</角色></name><originInfo>发布日期:2021-11发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2021年自然语言处理实证方法会议记录</titleInfo><name type=“个人”>玛丽·弗朗辛莫恩斯<角色>编辑器</角色></name><name type=“个人”>轩辕<namePart type=“given”>黄<namePart type=“family”><角色>编辑器</角色></name><name type=“个人”>露西娅Specia系列<角色>编辑器</角色></name><name type=“个人”>斯科特文涛<namePart type=“given”>文涛</namePart>Yih(Yih)<角色>编辑器</角色></name><originInfo><publisher>计算语言学协会</publisher><位置>在线和多米尼加共和国卡纳角</place></originInfo>会议出版物</relatedItem><abstract>在这项工作中,我们重点关注一个更具挑战性的少数意图检测场景,其中许多意图都是细粒度的,并且在语义上相似。通过对比预训练和微调,我们提出了一种简单而有效的少快照意图检测方案。具体来说,我们首先对收集到的意图数据集进行自我监督的对比预训练,它隐式学习在不使用任何标签的情况下区分语义相似的话语。然后,我们进行少量意图检测和有监督的对比学习,这明确地将来自同一意图的话语拉近,并将不同意图的话语推得更远。实验结果表明,在五镜头和十镜头设置下,我们提出的方法在三个具有挑战性的意图检测数据集上取得了最先进的性能</摘要><identifier type=“citekey”>zhang-etal-2021镜头</identifier>10.18653/v1/2021.emnlp-main.144<位置><网址>https://aclantology.org/2021.emnlp-main.144</url></位置><部分>2021-11年<扩展单元=“page”><开始>19061912年</范围></部分></mods></modsCollection>
%0会议记录%基于对比预训练和精细调整的T少数镜头意图检测%张建国%阿布伊,特朗%A Yoon,Seunghyun先生%A Chen,Xiang先生%刘志伟%阿霞、聪颖%阿Tran,Quan Hung%沃尔特·阿昌%菲利普·A Yu%玛丽·弗朗辛·Y·莫恩斯%Y Huang,宣景%露西娅·Y·斯佩西亚%Y Yih、Scott Wen-tau%2021年自然语言处理实证方法会议论文集%D 2021年%11月8日%计算语言学协会%C Online和Punta Cana,多米尼加共和国%F zhang-etal-2021镜头%X在这项工作中,我们重点关注一个更具挑战性的少数意图检测场景,其中许多意图都是细粒度的,并且在语义上相似。通过对比预训练和微调,我们提出了一种简单而有效的少快照意图检测方案。具体来说,我们首先对收集到的意图数据集进行自我监督的对比预训练,它隐式学习在不使用任何标签的情况下区分语义相似的话语。然后,我们进行少量意图检测和有监督的对比学习,这明确地将来自同一意图的话语拉近,并将不同意图的话语推得更远。实验结果表明,在五镜头和十镜头设置下,我们提出的方法在三个具有挑战性的意图检测数据集上取得了最先进的性能。%R 10.18653/v1/2021.emnlp-main.144号%U型https://aclantology.org/2021.emnlp-main.144%U型https://doi.org/10.18653/v1/2021.emnlp-main.144%电话:1906-1912
降价(非正式)
[通过对比预训练和精细调整进行少量快照意图检测](https://aclantology.org/2021.emnlp-main.144)(Zhang等人,EMNLP 2021)
国际计算语言学协会
- 张建国(Jianguo Zhang)、崔钟泌(Trung Bui)、尹承铉(Seunghyun Yoon)、陈翔(Xiang Chen)、刘志伟(Zhiwei Liu。2021基于对比预训练和精细调整的少快照意图检测.英寸2021年自然语言处理实证方法会议记录,第1906-1912页,在线和多米尼加共和国卡纳角。计算语言学协会。