@进行中{zhang-etal-2023转弯,title=“对话状态跟踪的Turn-Level主动学习”,author=“Zhang、Zihan和方、孟和叶、芳华和陈、凌和Namazi-Rad,Mohammad-Reza“,editor=“Bouamor、Houda和皮诺、胡安和巴厘岛,卡利卡”,booktitle=“2023年自然语言处理实证方法会议记录”,月=12月,年=“2023”,address=“新加坡”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.emnlp-main.478",doi=“10.18653/v1/2023.emnlp-main.478”,pages=“7705--7719”,abstract=“对话状态跟踪(DST)在以任务为导向的对话系统中发挥着重要作用。然而,收集大量带注释的即时对话数据既昂贵又低效。在本文中,我们提出了一种新颖的话轮级主动学习框架,用于DST主动选择对话中的话轮进行注释。鉴于标签预算有限,实验结果证明了对对话转折进行选择性注释的有效性。此外,我们的方法可以有效地实现与传统训练方法相当的DST性能,并且注释数据明显较少,这为注释新的对话数据提供了一种更有效的方法。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“zhang-etal-2023-turn”><标题信息><title>对话状态跟踪的Turn-Level Active Learning</titleInfo><name type=“personal”>紫韩<namePart type=“family”>张<角色>作者</角色></name><name type=“personal”>孟方<角色>作者</角色></name><name type=“personal”><namePart type=“给定”>芳华</namePart>叶<角色>作者</角色></name><name type=“personal”>玲玲<namePart type=“family”>陈</namePart><角色>作者</角色></name><name type=“personal”>穆罕默德·雷扎Namazi-Rad<角色>作者</角色></name><originInfo>2023-12年发布</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2023年自然语言处理实证方法会议记录</titleInfo><name type=“personal”>侯达布阿莫尔<角色>编辑器</角色></name><name type=“personal”>胡安皮诺<角色>编辑器</角色></name><name type=“personal”>卡利卡语巴厘岛<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>新加坡</place></originInfo>会议出版物</relatedItem>对话状态跟踪(DST)在面向任务的对话系统中发挥着重要作用。然而,收集大量带注释的即时对话数据既昂贵又低效。在本文中,我们提出了一种新颖的话轮级主动学习框架,用于DST主动选择对话中的话轮进行注释。鉴于标签预算有限,实验结果证明了选择性注释对话转折的有效性。此外,我们的方法可以有效地实现与传统训练方法相当的DST性能,并且注释数据明显较少,这为注释新的对话数据提供了一种更有效的方法</摘要><identifier type=“citekey”>zhang-etal-2023-转弯</identifier>10.18653/v1/2023.emnlp-main.478<位置><网址>https://aclantology.org/2023.emnlp-main.478</url></位置><部分>2023-12年<扩展单元=“page”><开始>7705</开始><end>7719</范围></部分></mods></modsCollection>
%0会议记录%基于T层主动学习的对话状态跟踪%A Zhang,紫韩%孟阿芳%阿叶,芳华%A Chen、Ling%A Namazi-Rad,Mohammad-Reza(穆罕默德·雷扎)%Y Bouamor,Houda公司%胡安·皮诺%Y巴厘岛,卡利卡%2023年自然语言处理实证方法会议论文集%D 2023年%12月8日%计算语言学协会%C新加坡%F zhang-etal-2023转弯%X对话状态跟踪(DST)在面向任务的对话系统中发挥着重要作用。然而,收集大量带注释的即时对话数据既昂贵又低效。在本文中,我们提出了一种新颖的话轮级主动学习框架,用于DST主动选择对话中的话轮进行注释。鉴于标签预算有限,实验结果证明了选择性注释对话转折的有效性。此外,我们的方法可以有效地实现与传统训练方法相当的DST性能,并且注释数据明显较少,这为注释新的对话数据提供了一种更有效的方法。%R10.18653/v1/2023.emnlp-main.478%U型https://acl选集.org/2023.emnlp-main.478%U型https://doi.org/10.18653/v1/2023.emnlp-main.478%电话7705-7719
降价(非正式)
【对话状态跟踪的Turn-Level Active Learning】(https://aclantology.org/2023.emnlp-main.478)(Zhang等人,EMNLP 2023)
国际计算语言学协会
- Zihan Zhang、Meng Fang、Fanghua Ye、Ling Chen和Mohammad-Reza Namazi-Rad,2023年。对话状态跟踪的Turn-Level主动学习.英寸2023年自然语言处理实证方法会议记录,第7705–7719页,新加坡。计算语言学协会。