{“状态”:“好”,“消息类型”:“工作”,“消息版本”:“1.0.0”,“消息”:{“索引”:{“日期部分”:[[2024,8,7]],“日期-时间”:“2024-08-07T01:06:27Z”,“时间戳”:1722992787695},“引用计数”:40,“发布者”:“富士科技出版社有限公司”,“问题”:“6”,“内容域”:{“域”:[],“交叉标记限制”:false},“短容器标题”:[“JACIIII”,“J.Adv。计算。智力。智力。通知。“],”published-print“:{”date-parts“:[[2019,11,20]]},”抽象“:”在我们的日常生活中,不可避免地要面对我们感到自信或不自信的情况。在这些条件下,我们可能会有不同的表达和反应。更不用说在人类与机器人通信的情况下。机器人有必要以各种方式表现出适应性置信度,例如,在以往的工作中,当机器人在交互过程中出错时,不同的确定性表达方式对人类的真实性和接受性产生了影响。另一方面,当人类对机器人的话语感到不确定时,机器人如何识别人类的不确定是至关重要的。然而,相关的研究还很少,忽视了个体特征。在本研究中,我们设计了一个实验,以获取人类在一定和不确定条件下的言语和非言语特征。从确定/不确定答案实验中,我们提取头部运动和声音因素作为特征,以研究是否可以正确分类这些特征。从结果中,我们发现不同的人有不同的特征来显示不同的确定程度,但考虑到他们相对接近的心理特征值,一些参与者可能有类似的模式。我们的目标是探索不同的个体u2019确定性表达模式,因为它不仅可以促进人类u2019信心状态检测,而且有望用于机器人端,以自适应地给出适当的响应,从而为人机交互增添趣味<\/jats:p>“,”DOI“:”10.20965\/jacii.2019.p1089“,”type“:”journal-article“,”created“:{”date-parts“:[[2019,11,19]],”date-time“:”2019-11-19T15:34:39Z“,”timestamp“:1574177679000},”page“:“1089-1097”,“source”:“Crossref”,“is-referenced-by-count”:1,“title”:[“基于个体言语和非言语特征的人-机器人交互信心表达与识别“],前缀:“10.20965”,卷:“23”,作者:[{“给定”:“优弟”,家庭:“李”,“序列”:“第一”,“隶属关系”:[]},{“名称”:“东京都市大学6-6朝日高,日野,东京191-0065”,“顺序”:“首先”affiliation“:[]},{”given“:”Wei Fen“,”family“:”Hsieh“,”sequence“:”additional“,”affiliance“:[]},”{“given”:“Eri”,“family”:“Sato-Simokawara”,“sequence”:“additional”,“affiliationation”:[],{“给定”:“Toru”,“家族”:“山口”,“序列”:“附加”,“从属关系”:[]{,“成员”:“8550”,“published on line”:{“date-parts”“:[[2019,11,20]]},”引用“:[{”密钥“:”key-10.20965 \/jacii.2019.p1089-1“,”doi-asserted-by“:”crossref“,“unstructured”:“P.Liu,D.F.Glas,T.Kanda,and H.Ishiguro,\u201cData-Driven HRI:Learning Social Behaviors by Example from Human Interaction,\u201 D IEEE Trans。《机器人学》,第32卷,第4期,第988-1008页,2016年。“,“DOI”:“10.1109\/TRO.2016.2588880”},{“key”:“key-10.20965\/jacii.2019.p1089-2”,“DOI-asserted-by”:“crossref”,“unstructured”:“I.Leite,M.McCoy,D.Ullman,N.Salomons,and B。Scassella,\u201c个体和群体互动中脱离模式的比较,\u201 d Proc。第十届年度ACM IEEE人机交互国际会议(HRI\u201915)第99-105页,2015年。”,“DOI”:“10.1145”,{“key”:“key-10.20965”,jacii.2019.p1089-3”,“DOI-asserted-by”:“crossref”,“unstructured”:“D.Matsui,T.Minato,K.F.MacDorman,and H。石黑一雄,\u201c通过绘制人体运动图在安卓系统中生成自然运动,\u201d H.Ishiguro和F.Dalla Libera(编辑),\u201cGeminoid Studies:Science and Technologies for Human-like Teleoperated Androids,\u201d pp.57-73,Springer,2018.“,”DOI“:”10.1007\/978-981-10-8702-8_4“},{”key“:”key-10.20965\/jacii.2019.p1089-4“,”DOI断言“:”crossref“,”unstructured“:”T.Minato、M.Shimada、H.Ishiguro和S.Itakura,用于研究人机交互的Android机器人的开发,《201d Proc》。第17届国际人工智能和专家系统工业和工程应用会议(IEA),第424-434页,2004年。“,”DOI“:”10.1007“/978-3-540-24677-0_44“},{“key”:“key-10.20965”jacii.2019.p1089-5“,”非结构化“:”M.Pantic,R.Cowie,F.D\u2019Errico,D.Heylen,M.Mehu,C.Pelachaud,I.Poggi,M.Schroeder,and A。Vinciarelli,《社会信号处理:研究议程》(Social Signal Processing:The Research Agenda),《201d T.B.Moeslund,A.Hilton,V.Kr\u00fcger,L.Sigal(Eds.),《人类视觉分析:看人》(Visual Analysis of Humans:Looking at People),第511-538页,斯普林格出版社,2011年。“},{“key”:“key-10.20965\/jacii.2019.p1089-6”,“doi-asserted-by”:“crossref”,“unstructured”:“S.Ivaldi,S.Lefort,J.Peters,M。Chetouani,J.Provasi和E.Zibetti,《面向HRI中考虑个人因素的敬业度模型:关于人类2013机器人装配任务中机器人凝视和说话的外向和消极态度的关系》,《社交机器人学国际期刊》第9卷第1期,第63-86页,2017年。“,“DOI”:“10.1007”,第12369-016-0357-8页”},{“key“:”key-10.20965 \/jacii.2019.p1089-7“,”doi-asserted-by“:”crossref“,”unstructured“:”S.M.Anzalone,Y.Yoshikawa,H.Ishiguro,E.Menegatti,E.Pagello,and R.Sorbello,\u201cTowards Partners Profiling in Human Robot Interaction Contexts,\u201 d Proc。第三届自动机器人仿真、建模和编程国际会议(SIMPAR 2012),第4-15页,2012年。“,“DOI”:“10.1007\/978-3642-34327-8_4”},{“key”:“key-10.20965\/jacii.2019.p1089-8”,“DOI-asserted-by”:“crossref”,“unstructured”:“M.Leo和G.M.Farinela(编辑),《辅助医疗的计算机视觉》,学术出版社,2018年。“,“DOI”:“10.1016\/j.cviu.2016.09.001”},{“key”:“key-10.20965\/jacii.2019.p1089-9”,“非结构化”:“A.Vinciarelli,M.Pantic,and H。Bourard,《社会信号处理:新兴领域的调查》,《图像与视觉计算》第27卷第12期,第1743-1759页,2009年。Arya,《使用RBF神经网络对人类运动中的风格和情感进行分类和翻译》,《神经计算》,第129卷,第585-595页,2014年。“,“DOI”:“10.1016\/j.neucom.2013.09.01”},{“key”:“key-10.20965\/jacii.2019.p1089-11”,“DOI-asserted-by”:“crossref”,“unstructured”:“A.Thomaz,G.Hoffman,and M。Cakmak,\u201c计算人机交互,\u201d机器人基础与趋势,第4卷,第2-3期,第105-2232016页。Sebe,\u201c利用社交凝视和说话活动自动确定Extraversiontrait,\u201 d Proc。国际多模接口会议和多模交互机器学习研讨会(ICMI-MLMI\u201910),第7条,2010年。“,“DOI”:“10.1145\/1891903.1891913”},{“key”:“key-10.20965\/jacii.2019.p1089-13”,“DOI-asserted-by”:“crossref”,“unstructured”:“H.Ritschel and E。Andr\u00e9,基于强化学习和社会信号的实时机器人个性适应,\u201d Proc。2017年ACM IEEE国际人机交互会议指南,第265-266页,2017年。“,”DOI“:”10.1145“/3029798.3038381“},{”key“:”key-10.20965“/jacii.2019.p1089-14“,”DOI-asserted-by“:”crossref“,”unstructured“:”K.M.Lee,W.Peng,S.Jin,and C.Yan,“u201cRobots Can Manifest Personality?《2013年人类机器人交互中人格识别、社会反应和社会存在的实证测试》,《通信杂志》第56卷第4期,第754-772页,2006年。“,“DOI”:“10.1111\/J.1460-2466.2006.00318.x”},{“key”:“key-10.20965”\/jacii.2019.p1089-15“,”DOI-asserted-by“:”crossref“,”unstructured“:”A.Aly和A。Tapus,\u201cA基于人机交互中的个性特征综合言语和非言语行为的模型,\u201 d Proc。第八届ACM IEEE国际人机交互会议,第325-332页,2013年。“,”DOI“:”10.1109“/HRI.2013.6483606“},{”key“:”key-10.20965“/jacii.2019.p1089-16“,”unstructured“:”S.Woods,K.Dautenhahn,C.Kaouri,R.Boekhorst,and K.L.Koay,\u201c这个机器人像我吗?人类和机器人个性特征之间的联系,\u201d Proc。第五届IEEE-RAS类人机器人国际会议,第375-380页,2005年。“},{“key”:“key-10.20965\/jacii.2019.p1089-17”,“非结构化”:“Y.Li,W.F.Xieh,A.Matsufuji,E.Sato-Simokawara,and T。山口,《人与机器人交互中错误情境的确定或不确定:一项聚焦于语言因素的对话实验》,《ISCIIA2018和ITCA2018(ISCIIA和ITCA2018)的联合国际比较》,2018年。“},{”key“:”key-10.20965“/jacii.2019.p1089-18“,”doi-asserted-by“:”crossref“,”unstructured“:”N。Mavridis,《语言和非语言人机交互通信综述》,《机器人与自治系统》,第63卷,第1部分,第22-35页,2015年。“,“DOI”:“10.1016\/j.robot.2014.09.31”},{“key”:“key-10.20965 \/jacii.2019.p1089-19”,“DOI-asserted-by”:“crossref”,“unstructured”:“A.Aly和A。Tapus,\u201cTowards A intelligent system for generating A adapted口头和非口头组合行为in human \u2013robot interaction,\u201 d Autonomous Robots,Vol.40,Issue 2,pp.193-209,2016。“,DOI”:“10.1007”,“10514-015-9444-1”},{“key”:“key-10.20965”,jacii.2019.p1089-20”,“unstructured”:“M.L.Knapp,J.A.Hall,and T.G。Horgan,《人类互动中的非语言交流》,第8版,Wadsworth Cengage Learning,2013年。“},{“key”:“key-10.20965”,jacii.2019.p1089-21“,“非结构化”:“V.Chu,K.Bullard,and A.L.Thomaz,《HRI的多模态实时意外事件检测》,2014 IEEE,RSJ Int。智能机器人与系统会议,第3327-3332页,2014年。“},{“key”:“key-10.20965\/jacii.2019.p1089-22”,“doi-asserted-by”:“crossref”,“unstructured”:“P.Cofta,\u201cConfidence,trust and identity,\u201 d BT Technology J.,第25卷,第2期,第173-178页,2007年。”,“doi”:“10.1007\/s10550-007-0042-4”},“key“:”key-10.201965\/yacii.2019.p1089-23”,“”doi断言:“crossref”,“非结构化”:“L.Takayama,D.Dooley,and W.Ju,\u201c表达思想:用动画原理提高机器人的可读性,\u201d Proc。第六届ACM\/IEEE人机交互国际会议(HRI\u201911)第69-76页,2011年。”,“DOI”:“10.1145\/1957656.1957674”},{“key”:“key-10.20965\/jacii.2019.p1089-24”,“DOI-asserted-by”:“crossref”,“unstructured”:“A.D.Dragan,S.Bauman,J.Forlizzi,and S.S。Srinivasa,\u201c机器人运动对人-机器人协作的影响,\u201 d Proc。第十届ACM IEEE人机交互国际会议(HRI\u201915)第51-58页,2015年。”,“DOI”:“10.1145\/2696454.2696473”},{“key”:“key-10.20965\/jacii.2019.p1089-25”,“unstructured”:“P.E.Vernon,\u201cPersonality Assessment:A critical survey,\u201 d Routledge,2014.”}:“crossref“,”unstructured“:”R.A.LeVine,\u201cCulture,Behavior,and Personality:An Introduction to the Comparative Study of Psychosocial Adaption,第二版,Routledge,2018年。“DOI”:“10.4324\/9780203794067”},{“key”:“key-10.20965\/jacii.2019.p1089-27”,“unstructure”:“D.Cervone and L.A。Pervin,《个性:理论与研究》,第13版(装订版),John Wiley&Sons,2015年。“},{“key”:“key-10.20965”,jacii.2019.p1089-28“,“doi-asserted-by”:“crossref”,“unstructured”:“I.Poggi和F.D\u2019Errico,《社会信号:心理学视角》,A.Ali Salah和T.Gevers(编辑),《人类行为的计算机分析》,第185-225页,施普林格出版社,2011年。“,“DOI”:“10.1007”,978-0-85729-994-9_8“},{“key”:“key-10.20965”,jacii.2019.p1089-29“,“非结构化”:“O.P.John,L.P.Naumann,and C.J.Soto,“201c范式转换到综合五大特征分类学:历史、测量和概念问题”,201d O.P。John,R.W.Robins和L.A.Previn(编辑),《人格手册:理论与研究》,第三版,第114-158页,吉尔福德出版社,2008年。Knoll,\u201cSocial Human-Robot Interaction中头部姿势的交互状态建模,\u201 d Proc。2012年第七届ACM IEEE国际人机交互大会(HRI2012)上举办的“人机交互中的凝视”研讨会。“}”,{“key”:“key-10.20965”,jacii.2019.p1089-31”,“doi-asserted-by”:“crossref”,“unstructured”:“M.Salem,F.Eyssel,K.Rohlfing,S.Kopp,and F.Joublin,“u201cTo-Err is Human(like)”《机器人手势对感知到的人类形态和可能性的影响》,《社交机器人国际期刊》第5卷第3期,第313-323页,2013年。“,“DOI”:“10.1007”,“s12369-013-0196-9”},{“key”:“key-10.20965”,jacii.2019.p1089-32”,“DOI-asserted-by”:“crossref”,《非结构化》:“M.Giuliani,N.Mirnig,G.Stollnberger,S.Stadler,R.Buchner,and M。Tscheligi,《2013年不同人机交互研究视频数据的系统分析:错误情况下社会信号的分类》,《心理学前沿》第6卷,第931条,2015年。“,“DOI”:“10.3389”,fpsyg.2015.00931“},{“key”:“key-10.20965”,jacii.2019.p1089-33“,“非结构化”:“R.Stiefelhagen,C.Fugen,R。Gieselmann、H.Holzapfel、K.Nickel和A.Waibel,使用语音、头部姿势和手势的自然人机交互,《201d程序》。2004年IEEE\/RSJ智能机器人与系统国际会议(IROS 2004),第3卷,第2422-24272004页。Darrell,《感知界面的头部手势:上下文在提高识别中的作用》,《人工智能》第171卷第8-9期,第568-585页,2007年。“,“DOI”:“10.1016\/j.artint.2007.04.003”},{“key”:“key-10.20965\/jacii.2019.p1089-35”,“DOI-asserted-by”:“crossref”,“unstructured”:“A.Frischen,A.P.Bayliss,and S.P。Tipper,《关注的凝视线索:视觉注意、社会认知和个体差异》,《心理公报》,第133卷,第4期,第694-724页,2007年。Odobez,《在自然会议中从头部姿势识别视觉注意力焦点》,IEEE Trans。《系统、人与控制论》,第B部分(控制论),第39卷,第1期,第16-33页,2009年普拉特,http://www.fon.hum.uva.nl\/Praat\/[于2019年8月16日访问]“},{“key”:“key-10.20965\/jacii.2019.p1089-39”,“doi-asserted-by”:“crossref”,“unstructured”:“E.Kasano,S.Muramatsu,A.Matsufuji,E.Sato-Simokawara,and T。山口,《使用语音信息和头部运动评估演讲者对谈话的信心》,《Proc。2019年第16届泛在机器人国际会议(UR)第294-298页,2019年。”,“DOI”:“10.1109”,“URAI.2019.8768561”},{“key”:“key-10.20965”,“jacii.2019.p1089-40”,“DOI-asserted-by”:“crossref”,”unstructured“:”R.Arora and Suman,\u201c使用WEKA对不同数据集的分类算法进行比较分析,\u201 d Int。《计算机应用杂志》,第54卷,第13期,第21-25页,2012年content-type“:”unspecified“,”content-version“:”vor“,”intended-application“:”similarity-checking“}],”deposed“:{”date-parts“:[2022,10,6]],”date-time“:“2022-10-06T04:03:30Z”,”timestamp“:1665029010000},”score“:1,”resource“:{primary”:{“URL”:“https://www.fujipress.jp\/jaciiii\/jc\/jabii002300061089”}},“subtitle”:[],“短标题”:[],”已发布“:{”日期部分”:[[2019,11,20]]},“参考文献数”:40,“期刊问题”:{“问题”:“6”,“在线发布”:{“日期部分”:[[2019,11,20]]},“已发布印刷品”:{“日期部分”:[[2019,11,20]]}},“URL”:“http:\/\/dx.doi.org/10.20965\/jacii.2019.p1089”,“关系”:{},“ISSN”:[“1883-8014”,“1343-0130”],“ISSN类型”:[{“类型”:“电子”,“值”:“1883-8014”},{“类型”:“print“,”value“:”1343-0130“}],”subject“:[],”published“:{”date-parts“:[[2019,11,20]]}}