{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“讯息”:{“索引”:{“日期-部分”:[[2023,8,9]],“日期-时间”:“2023-08-09T22:23:30Z”,“时间戳”:1691619810336},“参考-计数”:18,“出版商”:“富士科技出版社”,“问题”:“5”,“资助者”:[{“名称”:“国家重点研发项目”,“奖项”:[“2019YFB2101902”,“2020YFF0304704”]}],“内容域”:{“域”:[],“交叉标记-限制”:false},“短容器-时间”:[“JACIII”,“J.Adv.Compute.Intell.Intell.Inform.”],“published-print”:{“date-parts”:[[2021,9,20]]},”抽象“:”步态识别是一种可以在远距离和非受控条件下实现的生物特征识别方法。因此,它在刑事调查和安全检查中的应用非常广泛。现有的步态识别方法大多采用步态能量图像(GEI)进行特征提取。然而,GEI方法忽略了步态的动态信息,这使得识别性能受到视角变化以及被试物品和衣服的影响。为了解决这些问题,本文提出了一种基于动静态特征融合的双流网络(FDSN)的横视步态识别方法。首先,从GEI中提取静态特征,从人体下肢图像序列中提取动态特征。然后,将这两个特征进行融合,最后使用最近邻分类器进行分类。在中科院自动化研究所创建的CASIA-B数据集上进行的对比实验表明,在视角或服装变化的情况下,FDSN比卷积神经网络(CNN)和步态集获得了更高的识别率。为了满足我们的要求,本研究在校园环境中收集并生成了步态图像数据集。在此数据集上的实验结果表明,FDSN在消除破坏性更改的影响方面是有效的<\/jats:p>“,”DOI“:”10.20965\/jacii.2021.p0671“,”type“:”journal-article“,”created“:{”date-parts“:[[2021,9,19]],”date-time“:”2021-09-19T15:02:08Z“,”timestamp“:1632063728000},“page”:“671-678”,“source”:”Crossref“,”is-referenced-by-count“:5,”title“:[”Cross-View Gait Recognition Based on Dual-Stream Network“],”prefix“:“10.20965”,“卷”:“25”,“作者”:[{”给定“:”晓燕“,”家庭“:”赵“,”序列“:”第一“,”从属关系“:[]},”给定“:“文静”,”家族“:”张“,”顺序“:”附加“,”隶属关系“:【】},“给定”:“天要”,“家庭”:“张”,“序列”:“附加”,“从属关系”:【】{,“已知”:“赵慧”,“家族”:“章”,“顺序”:“额外”,“隶属关系”:[]},{“名称”:“中国北京科技大学自动化与电气工程学院,北京海淀区学院路30号,邮编100083北京科技大学工业光谱成像工程研究中心,北京海淀区学院路30号,中国北京100083“,“sequence”:“additional”,“affiliation”:[]}],“member”:“8550”,“published-on-line”:{“date-parts”:[[2021,9,20]]},“reference”:[{“key”:“key-10.20965\/jacii.2021.p0671-1”,“doi-asserted-by“:”crossref“,”unstructured“:”L.-F.Liu、W.Jia和Y.-H.Zhu,\u201c步态识别调查,\u201 d Proc。第五届智能计算国际会议新兴智能计算技术与应用(ICIC\u201909),第652-6592009页。”,“DOI”:“10.1007\/978-3-642-04020-7_70”},{“key”:“key-10.20965\/jacii.2021.p0671-2”,“非结构化”:“M.S.Nixon和J.N.Carter,u201c自动步态识别的优势,u201d第六届IEEE国际会议。自动人脸和手势识别会议,第139-144页,2004年。“},{“key”:“key-10.20965”,jacii.2021.p0671-3“,”doi-asserted-by“:”crossref“,”unstructured“:”L.Lee和W.E.L.Grimson,识别和分类的步态分析,IEEE Int第五届会议的u201d程序。自动面部手势识别会议,doi:10.1109,AFGR.2002.1004148,2002.“,”doi“:”10.1109,“AFGR.200201404148”},{“key”:“key-10.20965,jacii.2021.p0671-4”,“doi-asserted-by”:“crossref”,“unstructured”:“B.Dikovski,G.Madjarov,and D。Gjorgjevikj,\u201c使用Kinect的骨骼数据评估步态识别的不同特征集,2014年第37届国际信息通信技术、电子和微电子会议(MIPRO),第1304-1308页,2014年。“,“DOI”:“10.1109\/MIPRO.2014.6859769”},{“key”:“key-10.20965\/jacii.2021.p0671-5”,“doi-asserted-by“:”crossref“,”unstructured“:”M.Deng,C.Wang,F.Cheng,and W.Zeng,\u201c步态识别时空和运动学特征与确定性学习的融合,《模式识别》,第67卷,第186-200页,2017年。“doi”:“10.1016\/j.patcog.2017.02.014”},{“key”:“key-10.20965\/jacii.2021.p0671-6”,“doi-assert-by”:“crossref”,“非结构化”:“J.Han和B.Bhanu,使用步态能量图像的个人识别,IEEE Trans。《模式分析与机器智能》,第28卷,第2期,第316-322页,2006年。“,“DOI”:“10.1109”,{“key”:“key-10.20965”,jacii.2021.p0671-7“,“DOI-asserted-by”:“crossref”,“unstructured”:“I.Rida,S.Almadeed和A.Bouridane,基于步态能量图像的改进步态识别,2014年第26期Int。微电子会议(ICM),第40-43页,2014年。”,“DOI”:“10.1109”,{“key”:“key-10.20965”,jacii.2021.p0671-8“,“DOI-asserted-by”:“crossref”,“unstructured”:“C.Luo,W.Xu和C.Zhu,基于分区和典型相关分析的稳健步态识别,2015 IEEE Int。成像系统与技术会议(IST),第1-5页,2015年。”,“DOI”:“10.1109”,“IST.2015.7294548”},{“key”:“key-10.20965”,jacii.2021.p0671-9“,”DOI-asserted-by“:”crossref“,“unstructured”:“C.Yan,B.Zhang,and F.Coenen,通过卷积神经网络进行多属性步态识别,2015年第8期国际。图像和信号处理大会(CISP),第642-6472015页。”,“DOI”:“10.1109\/CISP.205.7407957”},{“key”:“key-10.20965\/jacii.2021.p0671-10”,“DOI asserted by”:“crossref”,“nonstructured”:“M.Alotaibi和A。Mahmood,基于专业深度卷积神经网络的改进步态识别,2015年IEEE应用图像模式识别研讨会(AIPR),第1-7页,2015年。Agarwal,《u201cVGR-net:视图不变步态识别网络》,2018年IEEE第四届身份、安全和行为分析国际会议(ISBA),第1-8页,2018年。罗,使用LSTM学习有效步态特征,2016年第23届模式识别国际会议(ICPR),第325-330页,2016年。“},{“key”:“key-10.20965”,jacii.2021.p0671-13“,“doi-asserted-by”:“crossref”,“unstructured”:“Z.Wu,Y.Huang,L.Wang,X.Wang,and T。Tan,\u201cA利用深层细胞神经网络进行基于跨视角步态的人类识别的综合研究,\u201d IEEE Trans。《模式分析与机器智能》,第39卷,第2期,第209-226页,2017年。“,“DOI”:“10.1109\/TPAMI.2016.2545669”},{“key”:“key-10.20965\/jacii.2021.p0671-14”,“DOI-asserted-by”:“crossref”,《unstructured》:“R.Liao,C.Cao,E.B.Garcia,S.Yu,和Y.Huang,基于位置的时空网络(PTSN)关于携带和穿着变化的步态识别,《中国生物识别大会》(CCBR 2017),《计算机科学讲义》,第10568卷,第474-483页,2017年。“,“DOI”:“10.1007”\/978-3319-69923-3_51“},{“key”:“key-10.20965”\/jacii.2021.p0671-15“,”DOI-asserted-by“:”crossref“,“unstructured”:“T.Wolf,M.Bababaaee,and G。Rigoll,使用3D卷积神经网络进行多视角步态识别,2016 IEEE图像处理国际会议(ICIP),第4165-4169页,2016年。”,“DOI”:“10.1109”,ICIP.2016.7533144“},{“key”:“key-10.20965”,jacii.2021.p0671-16“,”DOI-asserted-by“:”crossref“,“unstructured”:“H.Chao,Y.He,J.Zhang,and J。Feng,\u201cGaitSet:将步态视为一组用于横视步态识别的步态,\u201 d Proc。第33届AAAI人工智能大会,第8126-8133页,2019年。”,“DOI”:“10.1609\/AAAI.v33i01.33018126”},{“key”:“key-10.20965\/jacii.2021.p0671-17”,“DOI-asserted-by”:“crossref”,“unstructured”:“S.Li,Y.P.Dai,K.Hirota,and Z。左。\u201cA学生\u2019基于课堂监控视频面部态度识别的浓度评估算法,\u201d J.Adv.Comput。智力。智力。Inform,第24卷第7期,第891-899页,doi:10.20965\/jaciii.2020.p08912020。模式识别会议(ICPR\u201906),第441-444页,2006年。“}],“容器-时间”:[“高级计算智能和智能信息学杂志”],“原始标题”:[],“语言”:“en”,“链接”:[{“URL”:“https:\/\/www.fujipress.jp\/main\/wp-content\/themes\/fujipress\/phyosetsu.php?ppno=JACIL002500050019”,“内容类型”:“未指定”content-version“:”vor“,”intended-application“:”similarity-checking“}],”deposed“:{”date-parts“:[[2021,9,19]],”date-time“:”2021-09-19T15:08:11Z“,”timestamp“:1632064091000},”score“:1,”resource“:”{“primary”:{“URL”:“https:\/\/www.fujipress.jp\/jaciii\/jc\/jaciii002500050671”}},“subtitle”:[],“shorttitle”:[],“已发布”:{“日期部分”:[[2021,9,20]]},“references-count“:18,”journal-issue“:{”issue“:”5“,”published-online“:{”date-parts“:[2021,9,20]]},”publised-print“:{“date-part”:[[2021,9,20]]}},“URL”:“http://\/dx.doi.org\/10.20965\/jacii.2021.p0671”,“relation”:{},《国际标准期刊》:[“1883-8014”,“1343-0130”],“ISSN-type”:[{“数值”:“1883-8014”,“类型”:“电子”},{“值”:“1343-0130”,“型号”:“打印”}],“主题“:[],”已发布“:{“日期部分”:[[2021,9,20]]}}