“这是我们的错!”:通过解释性协作对话系统深入了解用户的理解和交互

凯瑟琳·韦茨,林赛·范德林,Ngoc Thang Vu村,伊丽莎白·安德烈


摘要
人工智能的一个长期目标是人与人工智能的协作,指的是人类与人工智能为共同目标而合作的伙伴关系。协作对话使人类人工智能团队能够交流并利用双方的优势。要设计协作对话系统,重要的是要了解用户对其AI-dialog伙伴形成了什么样的心理模型,然而,用户如何感知这些系统还没有完全了解。在本研究中,我们设计了一个新颖、协作、基于通信的益智游戏和解释对话系统。我们从117次对话和事后调查中创建了一个公共语料库,并用它来分析用户形成的心理模型。关键的收获包括:即使用户没有参与游戏,他们也认为AI-dialog合作伙伴聪明可爱,这意味着他们将其视为独立于游戏的合作伙伴。用户往往高估系统的能力,并投射出人性化的属性,从而导致沟通错误,这进一步支持了这一点。我们的结论是,在用户和人工智能系统之间创建共享的心理模型对于实现成功的对话非常重要。我们认为,我们对心理模型和错误沟通、游戏和语料库的见解为设计协作对话系统提供了有用的工具。
选集ID:
2021.第1.1章
原件:
2021.控制-1.1v1
版本2:
2021年1月1日第2版
体积:
第25届计算自然语言学习会议记录
月份:
十一月
年份:
2021
地址:
在线的
编辑:
阿里安娜·比萨扎,奥姆里·阿本德
地点:
CoNLL公司
SIG公司:
SIGNLL公司
出版商:
计算语言学协会
注:
页:
1–16
语言:
网址:
https://aclantology.org/2021.conll-1.1
内政部:
10.18653/v1/2021.第1.1节
比比键:
引用(ACL):
凯萨琳娜·威茨、林赛·范德林、恩戈·唐武和伊丽莎白·安德烈。2021“这是我们的错!”:通过解释性协作对话系统深入了解用户的理解和交互.英寸第25届计算自然语言学习会议记录,第1-16页,在线。计算语言学协会。
引用(非正式):
“这是我们的错!”:通过解释性协作对话系统深入了解用户的理解和交互(Weitz等人,CoNLL 2021)
复制引文:
PDF格式:
https://aclantology.org/2021.coll-1.1.pdf
视频:
 https://aclantology.org/2021.coll-1.1.mp4