×

带局部二进制卷积网络的暹罗金字塔残差模块用于单目标跟踪。 (英语) Zbl 1482.68213号

摘要:视觉目标跟踪在过去几年里取得了迅速的进展,受到了越来越多的关注。众所周知,纹理信息在许多应用中起着至关重要的作用,例如,在人的再识别、图像分类等。在这项工作中,我们提出了一种基于暹罗网络的单目标跟踪新框架,称为带局部二进制卷积网络的暹罗金字塔残差模,用于单目标跟踪(SPLBCT)。提出了一种局部二值卷积(LBC)模型,用于提取跟踪目标的纹理特征,可以改善光照方差。采用金字塔残差模型(PRM)研究不同层次的特征,实现多尺度特征的融合。LBC和PRM的结合增强了图像数据的特征提取。根据两个目标跟踪基准(VOT2015和VOT2016)和在线跟踪基准(OTB100),最终的实验结果表明,与以前的一些跟踪器相比,该方法性能更好。

MSC公司:

68T07型 人工神经网络与深度学习
62小时30分 分类和区分;聚类分析(统计方面)
PDF格式BibTeX公司 XML格式引用
全文: DOI程序

参考文献:

[1] Ammar,M.、Mahmoudi,S.和Stylianos,D.,新辅助化疗治疗中基于纹理的乳腺癌反应预测方法,基于软计算的医学图像分析(Elsevier,2018),第137-147页。
[2] Bertinetto,L.,Valmadre,J.,Golodetz,S.,Miksik,O.和Torr,P.S.,Staple:实时跟踪的补充学习者,2016年6月27日至30日美国内华达州拉斯维加斯IEEE计算机视觉与模式识别大会(CVPR),第1401-1409页。
[3] Bertineto,L.、Valmadre,J.、Henriques,J.F.、Vedaldi,A.和Torr,P.H.,用于对象跟踪的全卷积连体网络,Lect。注释计算。科学.9914(2016)850-865。
[4] Chen,L.,Huang,Q.,Pang,L.和Su,F.,结合纹理特征和背景加权颜色直方图的鲁棒跟踪,Lect。注释Electr。工程386(2016)751-759。
[5] Chen,L.,Papandreou,G.,Kokkinos,I.,Murphy,K.和Yuille,A.L.,Deeplab:使用深度卷积网络、atrous卷积和完全连接的CRFS进行语义图像分割,IEEE Trans。模式分析。马赫。Intell.40(4)(2017)834-848。
[6] Chen,Z.,You,X.,Zhong,B.,Li,J.和Tao,D.,动态调制掩模稀疏跟踪,IEEE Trans。Cybern.47(11)(2017)3706-3718。
[7] Chopra,S.、Hadsell,R.和LeCun,Y.,《区分性学习相似性度量,应用于人脸验证》,载于2013年IEEE计算机视觉与模式识别会议,美国加利福尼亚州圣地亚哥,2005年6月20日至25日(IEEE计算机学会,2005),第539-546页。
[8] M.Courbariaux、Y.Bengio和J.-P.David,《Binaryconnect:在传播过程中用二进制权重训练深层神经网络》,预印本(2015),arXiv:1511.00363。
[9] Danelljan,M.、Bhat,G.、Khan,F.和Felsberg,M.,Eco:高效卷积算子跟踪,2017年IEEE计算机视觉与模式识别(CVPR),美国檀香山,2017年7月21日至26日(IEEE计算机学会,2017),第6931-6939页。
[10] Diwakar,M.、Patel,P.K.、Gupta,K.和Chauhan,C.,《使用联合增强彩色纹理直方图进行目标跟踪》,载于2013年IEEE第二次国际会议图像信息处理,印度希姆拉,2013年12月9日至11日(IEEE,2013),第160-165页。
[11] Galoogahi,H.、Fagg,A.和Lucey,S.,《视觉跟踪的学习背景软件相关过滤器》,载于2017年IEEE国际计算机视觉会议(ICCV),意大利威尼斯,2017年10月22日至29日(IEEE计算机学会,2017),第1144-1152页。
[12] He,K.,Zhang,X.,Ren,S.和Sun,J.,图像识别的深度残差学习,2016年IEEE Conf.计算机视觉和模式识别(CVPR),美国加利福尼亚州洛斯阿拉米托斯,2016年6月27日至30日(IEEE计算机学会,2016),第770-778页。
[13] Juefei-Xu,F.、Boddeti,V.和Savvides,M.,局部二进制卷积神经网络,收录于2017年IEEE计算机视觉与模式识别会议(CVPR),美国夏威夷州火奴鲁鲁,2017年7月21日至26日(IEEE计算机学会,2017),第4284-4293页。
[14] Kristan,M.、Leonardis,A.和Matas,J.,《视觉对象跟踪VOT2016挑战结果》,《计算机视觉ECCV 2016研讨会》。ECCV 2016,(Springer,2016),第777-823页。
[15] Kristan,M.、Matas,J.、Leonardis,A.和Felsberg,M.,《视觉对象跟踪VOT2015挑战结果》,2015年IEEE国际计算机视觉研讨会(ICCVW)(IEEE计算机学会,2015年),第564-586页。
[16] Kumawat,S.、Verma,M.和Raman,S.,Lbvcnn:用于从图像序列中识别面部表情的局部二进制体积卷积神经网络,收录于2019年IEEE/CVF计算机视觉与模式识别研讨会(CVPRW),2019年6月16日至17日,美国加利福尼亚长滩(IEEE Computer Society,2019),第207-216页。
[17] Li,X.,Ma,C.,Wu,B.,He,Z.和Yang,M.,目标软件深度跟踪,2019 IEEE/CVF Conf.Computer Vision and Pattern Recognition(CVPR),美国加州长滩,2019年6月15-20日(IEEE Computer Society,2019),第1369-1378页。
[18] Li,B.,Wu,W.,Wang,Q.,Zhang,F.,Xing,J.和Yan,J.,Siamrpn++:暹罗视觉跟踪与深度网络的演变,2019年IEEE/CVF Conf,计算机视觉与模式识别(CVPR),美国加利福尼亚州长滩,2019月15-20日(IEEE Computer Society,2019),第4277-4286页。
[19] Li,B.,Yan,J.,Wu,W.,Zu,Z.和Hu,X.,《暹罗地区提案网络的高性能视觉跟踪》,2018 IEEE/CVF Conf.Computer Vision and Pattern Recognition(CVPR),美国加利福尼亚州洛斯阿拉米托斯,2018年6月18-23日(IEEE Computer Society,2018),第8971-8980页。
[20] Lin,T.,Dollr,P.,Girshick,R.,He,K.,Hariharan,B.和Belongie,S.,《用于物体检测的特征金字塔网络》,收录于Proc。IEEE conf.Computer Vision and Pattern Recognition,美国檀香山,2017年7月21-26日(IEEE Computer Society,2017),第2117-2125页。
[21] Lin,T.,Maire,M.,Belongie,S.,Hays,J.,Perona,P.和Ramanan,微软coco:Common objects in context,Lect。注释计算。科学8693(2014)740-755。
[22] W.Liu,A.Rabinovich和A.C.Berg,Parsenet:Looking wide to see better(2015),arXiv:1506.04579。
[23] Lukezic,A.、Vojir,T.、Cehovin Zajc,L.、Matas,J.和Kristan,M.,《信道和空间可靠性判别相关滤波器》,摘自Proc。IEEE Conf.计算机视觉和模式识别,美国火奴鲁鲁,2017年7月21日至26日(IEEE计算机协会,2017),第6309-6318页。
[24] Naveena,A.K.和Narayanan,N.,《使用颜色、纹理和形状描述符的组合进行图像检索》,载于2016年国际会议下一代智能系统(ICNGIS),印度科塔亚姆,2016年9月1-3日(IEEE计算机学会,2016),第1-5页。
[25] Ojala,T.、Pietikainen,M.和Maenpaa,T.,具有局部二进制模式的多分辨率灰度和旋转不变纹理分类,IEEE Trans。模式分析。马赫。《情报》24(7)(2002)971-987·Zbl 0977.68853号
[26] Rastegari,M.,Ordonez,V.,Redmon,J.和Farhadi,A.,Xnor-net:使用二进制卷积神经网络的Imagenet分类,摘自《欧洲计算机视觉会议》(Springer,2016),第525-542页。
[27] Real,E.,Shlens,J.,Mazzocchi,S.,Pan,X.和Vanhoucke,V.,Youtube-boundingboxes:用于视频中物体检测的大型高精度人机注释数据集,2017年IEEE Conf.Computer Vision and Pattern Recognition(CVPR),美国檀香山,2017年7月21日至26日(IEEE Computer Society,2017),第7464-7473页。
[28] S.Ren,K.He,R.Girshick和J.Sun,《Faster R-cnn:使用区域建议网络实现实时目标检测》,预印本(2015),arXiv:1506.01497。
[29] Russakovsky,O.、Deng,J.、Su,H.、Krause,J.、Satheesh,S.、Ma,S.、Huang,Z.、Karpathy,A.、Khosla,A.、Bernstein,M.、Berg,A.和Fei Fei,L.,Imagenet大规模视觉识别挑战,Int.J.Comput。见115(2014)211-252。
[30] K.Simonyan和A.Zisserman,《用于大规模图像识别的极深卷积网络》,预印本(2014),arXiv:1409.1556。
[31] Swati,Gupta,G.,Yadav,M.,Sharma,M.和Vig,L.,染色体分类的暹罗网络,2017年IEEE国际计算机视觉研讨会(ICCVW)(IEEE计算机学会,2017年),第72-81页。
[32] 田振中,赵华中,舒明明,杨振中,李瑞瑞,贾军,基于先验引导的特征富集网络,预印本(2020),arXiv:2008.01449。
[33] Townsend,A.、Racasan,R.和Blunt,L.,《特定表面添加剂制造测试人工制品》,《表面地形图》。大都会。提案6(2)(2018)024007。
[34] Valmadre,J.、Bertinetto,L.、Henriques,J.和Vedaldi,基于相关滤波器的跟踪的端到端表示学习,收录于2017年IEEE Conf.Computer Vision and Pattern Recognition(CVPR),美国檀香山,2017年7月21日至26日(IEEE Computer Society,2017),第5000-5008页。
[35] Voigtlaender,P.,Luiten,J.,Torr,P.S.和Leibe,B.,Siam R-CNN:通过重新检测进行视觉跟踪,2020年IEEE/CVF Conf.计算机视觉和模式识别(CVPR),美国西雅图,2020年6月13日至19日(IEEE Computer Society,2020),第6577-6587页。
[36] Wang,Q.,Zhang,L.,Bertinetto,L.、Hu,W.和Torr,P.H.,《快速在线对象跟踪和分割:统一方法》,2019年IEEE/CVF计算机视觉与模式识别会议,美国加利福尼亚州长滩,2019月15-20日(IEEE计算机学会,2019),第1328-1338页。
[37] Wu,Y.,Lim,J.和Yang,M.,对象跟踪基准,IEEE Trans。模式分析。马赫。《情报》37(9)(2015)1834-1848。
[38] Xue,J.,Zhang,H.和Dana,K.,《用于地面地形识别的深层纹理流形》,载于2018年IEEE/CVF计算机视觉和模式识别会议,美国加利福尼亚州洛斯阿拉米托斯,2018年6月18日至23日(IEEE计算机学会,2018),第558-567页。
[39] F.Yu和V.Koltun,《基于扩展卷积的多尺度上下文聚合》(2016),arXiv:1511.07122。
[40] Yu,Y.、Xiong,Y.、Huang,W.和Scott,M.R.,用于视觉对象跟踪的可变形连体注意力网络,2020年IEEE/CFF Conf.计算机视觉和模式识别(CVPR),美国华盛顿州西雅图,2020年6月13日至19日(IEEE计算机学会,2020),第6727-6736页。
[41] Yuan,Z.和Jun,S.,暹罗网络与多头部注意合作进行语义句子匹配,2020年第19国际交响乐团。分布式计算和商业工程与科学应用(DCABES),中国徐州,2020年10月16-19日(IEEE计算机学会,2020),第215-218页。
[42] Zhang,X.,Liu,L.,Xie,Y.,Chen,J.,Wu.,L.和Pietikainen,M.,旋转不变局部二进制卷积神经网络,2017 IEEE国际计算机视觉研讨会(ICCVW),(IEEE计算机学会,2017),第1210-1219页。
[43] Zhang,Z.和Peng,H.,用于实时视觉跟踪的更深层和更广的暹罗网络,2019年IEEE/CVF计算机视觉和模式识别(CVPR)会议,美国加利福尼亚州长滩,2019月15-20日(IEEE计算机学会,2019),第4586-4595页。
[44] Zhang,P.,Yu,S.,Xu,J.,You,X.,Jiang,X.-Y.和Tao,D.,使用多帧多特征联合建模的鲁棒视觉跟踪,IEEE Trans。电路系统。视频技术。29(12)(2019)3673-3686。
[45] Zhao,H.、Shi,J.、Qi,X.、Wang,X.和Jia,J.,《金字塔场景解析网络》,2017年IEEE计算机视觉与模式识别会议(CVPR),美国檀香山,2017年7月21日至26日(IEEE计算机学会,2017),第6230-6239页。
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。