×

基于子空间学习的视觉跟踪:一种鉴别方法。 (英语) Zbl 1458.68254号

小结:良好的跟踪性能通常归因于对先前获得的目标的准确表示和/或目标与周围背景之间的可靠区分。在这项工作中,通过综合这两种方法的优点,提出了一种鲁棒跟踪器。构造一个子空间来表示目标和相邻背景,并通过学习的子空间同时传播它们的类标签。此外,考虑到区分的可靠性和表示的准确性,提出了一种新的准则,用于从每个帧中的多个候选目标中识别目标。因此,在训练集仍然较小的情况下,有效地缓解了相邻背景样本的类标签中的模糊性,这影响了鉴别跟踪模型的可靠性。大量实验表明,该方法优于大多数最先进的跟踪器。

MSC公司:

68T45型 机器视觉和场景理解
68T05型 人工智能中的学习和自适应系统
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] Arulampalam,M.、Maskell,S.、Gordon,N.和Clapp,T.(2002年)。在线非线性/非高斯贝叶斯跟踪的粒子滤波器教程。IEEE信号处理汇刊(TSP),50(2),174-188·doi:10.1109/78.978374
[2] Avidan,S.(2004)。支持矢量跟踪。IEEE模式分析和机器智能汇刊(TPAMI),26(8),1064-1072·doi:10.1109/TPAMI.2004.53
[3] Avidan,S.(2007年)。信号群跟踪。IEEE模式分析和机器智能汇刊(TPAMI),29(2),261-271·doi:10.1109/TPAMI.2007.35
[4] Babenko,B.,成员,S.,Yang,M.H.,&成员,S..(2011年)。具有在线多实例学习的鲁棒对象跟踪。IEEE模式分析和机器智能汇刊(TPAMI),33(8),1619-1632·doi:10.1109/TPAMI.2010.226
[5] Beck,A.和Teboulle,M.(2009年)。线性反问题的快速迭代收缩阈值算法。SIAM成像科学杂志,2(1),183-202·兹比尔1175.94009 ·doi:10.1137/080716542
[6] Cai,J.、Candès,E.和Shen,Z.(2010)。矩阵补全的奇异值阈值算法。SIAM优化杂志,20(4),1956-1982·Zbl 1201.90155号 ·doi:10.1137/080738970
[7] Candes,E.J.、Li,X.、Ma,Y.和Wright,J.(2011)。稳健的主成分分析?美国医学会杂志,58(3),1-37·Zbl 1327.62369号 ·数字对象标识代码:10.1145/1970392.1970395
[8] Danelljan,M.、Häger,G.、Khan,F.S.和Felsberg,M.(2014)。用于鲁棒视觉跟踪的精确比例估计。英国机器视觉会议(BMVC)
[9] Dinh,T.B.、Vo,N.和Medioni,G.(2011年)。上下文跟踪器:探索无约束环境中的支持者和干扰者。IEEE计算机学会计算机视觉和模式识别会议(CVPR)(第1177-1184页)。
[10] Grabner,H.和Bischof,H.(2006)。在线激励和愿景。IEEE计算机学会计算机视觉和模式识别会议(CVPR),(第1卷,第260-267页)
[11] Hager,G.D.和Belhumeur,P.N.(1996年)。实时跟踪几何和照明变化的图像区域。IEEE计算机学会计算机视觉和模式识别会议(CVPR)(第403-410页)。
[12] Hare,S.、Saffari,A.和Torr,P.(2011年)。Struck:用内核进行结构化输出跟踪。在IEEE国际计算机视觉会议(ICCV)上(第263-270页)。
[13] Henriques,F.、Caseiro,R.、Martins,P.和Batista,J.(2012年)。利用内核开发逐点跟踪的循环结构。欧洲计算机视觉会议(ECCV)(第702-715页)
[14] Henriques,J.、Caseiro,R.、Martins,P.和Batista,J.(2015)。使用内核化相关滤波器进行高速跟踪。IEEE模式分析和机器智能汇刊(TPAMI),37(3),583-596·doi:10.1109/TPAMI.2014.2345390
[15] Isard,M.(1998)。凝聚:视觉跟踪的条件密度传播。国际计算机视觉杂志(IJCV),29(1),5-28·doi:10.1023/A:1008078328650
[16] Jia,X.、Lu,H.和Yang,M.H.(2012)。基于自适应结构局部稀疏外观模型的视觉跟踪。IEEE计算机学会计算机视觉和模式识别会议(CVPR)(第1822-1829页)。
[17] Kalal,Z.、Matas,J.和Mikolajczyk,K.(2010年)。P-N学习:通过结构约束引导二进制分类器。在IEEE计算机学会关于计算机视觉和模式识别(CVPR)的会议上(第49-56页)。
[18] Kalal,Z.、Mikolajczyk,K.和Matas,J.(2012)。跟踪-学习-检测。IEEE模式分析和机器智能汇刊(TPAMI),34(7),1409-1422·doi:10.1109/TPAMI.2011.239
[19] Kriegmant,D.J.,Engineering,E.,&Haven,N.(1996年)。在所有可能的照明条件下,对象的图像集是什么?IEEE计算机学会计算机视觉和模式识别会议(CVPR)(第270-277页)。
[20] Kwon,J.和Lee,K.(2010年)。视觉跟踪分解。IEEE计算机学会计算机视觉和模式识别会议(CVPR)(第1269-1276页)。
[21] Kwon,J.和Lee,K.M.(2011年)。通过采样跟踪器进行跟踪。IEEE计算机视觉国际会议(ICCV)(第1195-1202页)。
[22] Kwon,J.和Lee,K.M.(2014)。通过采样和集成多个跟踪器进行跟踪。IEEE模式分析和机器智能汇刊(TPAMI),36(7),1428-1441·doi:10.1109/TPAMI.2013.213
[23] Lasserre,J.A.、Bishop,C.M.和Minka,T.P.(2006)。生成模型和区分模型的原则性混合。IEEE计算机学会计算机视觉和模式识别会议(CVPR)(第6卷,第87-94页)。
[24] Lin,Z.、Chen,M.和Ma,Y.(2010)。精确恢复受损低秩矩阵的增广拉格朗日乘子方法。UIUC技术报告(第1-23页)。
[25] Liu,B.、Huang,J.、Yang,L.和Kulikowsk,C.(2011)。使用局部稀疏外观模型和K选择进行鲁棒跟踪。在IEEE计算机学会关于计算机视觉和模式识别(CVPR)的会议上(第1313-1320页)。
[26] Liu,S.,Zhang,T.,Cao,X.,&Xu,C.(2016)。用于鲁棒视觉跟踪的结构相关滤波器。在IEEE计算机学会关于计算机视觉和模式识别(CVPR)的会议上。
[27] Liu,B.、Huang,J.、Kulikowski,C.和Yang,L.(2013)。使用局部稀疏外观模型和K选择的鲁棒视觉跟踪。IEEE模式分析和机器智能汇刊(TPAMI),35(12),2968-2981·doi:10.1109/TPAMI.2012.215
[28] Ma,C.、Huang,J.B.、Yang,X.和Yang,M.H.(2015a)。视觉跟踪的层次卷积特征。IEEE计算机视觉国际会议(ICCV)(第3074-3082页)。
[29] Ma,C.,Yang,X.,Zhang,C.,&Yang,Mh.(2015b)。长期相关跟踪。IEEE计算机学会计算机视觉和模式识别会议(CVPR)(第5388-5396页)。
[30] Mairal,J.、Bach,F.和Ponce,J.(2008)。用于局部图像分析的识别性学习词典。在IEEE计算机学会关于计算机视觉和模式识别(CVPR)的会议上。
[31] Mei,X.和Ling,H.(2009)。使用L1最小化的鲁棒视觉跟踪。IEEE计算机视觉国际会议(ICCV)(第1436-1443页)。
[32] Mei,X.和Ling,H.(2011)。通过稀疏表示实现稳健的视觉跟踪和车辆分类。IEEE模式分析和机器智能汇刊(TPAMI),33(11),2259-2272·doi:10.1109/TPAMI.2011.66
[33] Nam,H.,&Han,B.(2016)。学习用于视觉跟踪的多域卷积神经网络。在IEEE计算机学会关于计算机视觉和模式识别(CVPR)的会议上。
[34] Ng,A.Y.和Jordan,M.I.(2001)。区分性分类器与生成性分类器:逻辑回归与朴素贝叶斯的比较。《神经信息处理系统进展》(NIPS)(第841-848页)。
[35] Pati,Y.、Rezaiifar,R.和Krishnaprasad,P.(1993)。正交匹配追踪:递归函数逼近及其在小波分解中的应用。在关于信号、系统和计算机的Asilomar会议上(第40-44页)。
[36] Pham,D.S.和Venkatesh,S.(2008)。用于模式识别的联合学习和字典构建。在IEEE计算机学会关于计算机视觉和模式识别(CVPR)的会议上(第1-8页)。
[37] Qi,Y.,Zhang,S.,Qin,L.,Yao,H.,Huang,Q.,Lim,J.,&Yang,M.H.(2016)。对冲深度追踪。IEEE计算机学会计算机视觉和模式识别会议(CVPR)(第4303-4311页)。
[38] Raina,R.和Ng,A.Y.(2007年)。自学学习:从未标记的数据中转移学习。在国际机器学习会议(ICML)上。
[39] Ross,D.A.、Lim,J.、Lin,R.S.和Yang,M.H.(2007)。用于鲁棒视觉跟踪的增量学习。国际计算机视觉杂志(IJCV),77(1-3),125-141。
[40] Sevilla Lara,L.和Learn Miller,E.(2012年)。用于跟踪的分发字段。IEEE计算机学会计算机视觉和模式识别(CVPR)会议(第1910-1917页)。
[41] Smeulders,A.W.M.、Chu,D.M.、Cucchiara,R.、Calderara,S.、Dehghan,A.和Shah,M.(2014)。视觉跟踪:一项实验性调查。IEEE模式分析和机器智能汇刊(TPAMI),36(7),1442-1468·doi:10.1109/TPAMI.2013.230
[42] Sui,Y.、Tang,Y.和Zhang,L.(2015a)。区分性低阶跟踪。IEEE计算机视觉国际会议(ICCV)(第3002-3010页)。
[43] Sui,Y.、Wang,G.和Zhang,L.(2017)。视觉跟踪的峰值强度相关滤波器学习。IEEE控制论汇刊(TCyb)。https://doi.org/10.109/TCYB.2017.2690860。
[44] Sui,Y.、Wang,G.、Tang,Y.和Zhang,L.(2016a)。跟踪完成。在欧洲计算机视觉会议上。
[45] Sui,Y.、Zhang,Z.、Wang,G.、Tang,Y.和Zhang、L.(2016b)。实时视觉跟踪:提高相关滤波器学习的鲁棒性。欧洲计算机视觉会议
[46] Sui,Y.,&Zhang,L.(2015)。通过局部结构高斯过程回归进行视觉跟踪。IEEE信号处理快报,22(9),1331-1335·doi:10.1109/LSP.2015.2402313
[47] Sui,Y.,&Zhang,L.(2016)。通过局部结构化表示实现鲁棒跟踪。国际计算机视觉杂志(IJCV),119(2),110-144·Zbl 1398.68596号 ·doi:10.1007/s11263-016-0881-x
[48] Sui,Y.、Zhang,S.和Zhang L.(2015b)。通过稀疏诱导子空间学习实现鲁棒视觉跟踪。IEEE图像处理学报(TIP),24(12),4686-4700·Zbl 1408.94616号 ·doi:10.10109/TIP.2015.22462076
[49] Sui,Y.、Zhao,X.、Zhang,S.、Yu,X.,Zhao。自我表达追踪。模式识别(PR),48(9),2872-2884·doi:10.1016/j.patcog.2015.03.007
[50] Tang,M.和Feng,J.(2015)。用于视觉跟踪的多核相关滤波器。IEEE计算机视觉国际会议(ICCV)(第3038-3046页)。
[51] Tibshirani,R.(1996)。通过套索回归收缩和选择。英国皇家统计学会期刊B辑(方法学),58(1),267-288·Zbl 0850.62538号
[52] Wang,D.和Lu,H.(2012)。通过2DPCA和L1规则化进行对象跟踪。IEEE信号处理快报,19(11),711-714·doi:10.1109/LSP.2012.2215320
[53] Wang,D.和Lu,H.(2014)。基于概率连续离群点模型的视觉跟踪。在IEEE计算机学会关于计算机视觉和模式识别(CVPR)的会议上。
[54] Wang,D.,Lu,H.和Yang,M.H.(2013a)。最小软阈值平方跟踪。IEEE计算机学会计算机视觉和模式识别会议(CVPR)(第2371-2378页)。
[55] Wang,D.,Lu,H.和Yang,M.H.(2013b)。使用稀疏原型进行在线对象跟踪。IEEE图像处理学报(TIP),22(1),314-325·Zbl 1373.94423号 ·doi:10.1109/TIP.2012.2202677
[56] Wang,L.、Ouyang,W.、Wang,X.和Lu,H.(2015)。使用完全卷积网络进行视觉跟踪。IEEE计算机视觉国际会议(ICCV)(第3119-3127页)。
[57] Wang,L.,Ouyang,W.,Wang,X.,&Lu,H.(2016)。Stct:用于视觉跟踪的连续训练卷积网络。IEEE计算机学会计算机视觉和模式识别会议(CVPR)(第1373-1381页)。
[58] Wang,Q.,Chen,F.,Xu,W.,&Yang,M.(2012)。基于局部稀疏表示的在线鉴别目标跟踪。在IEEE计算机视觉应用冬季会议上。
[59] Wright,J.、Ma,Y.、Mairal,J.和Sapiro,G.(2010年)。计算机视觉和模式识别的稀疏表示。IEEE学报,98(6),1031-1044·doi:10.1109/JPROC.2010.2044470
[60] Wu,Y.,Lim,J.,&Yang,M.H.(2013)。在线对象跟踪:一个基准。在IEEE计算机学会关于计算机视觉和模式识别(CVPR)的会议上(第2411-2418页)。
[61] Wu,Y.,Lim,J.,&Yang,M.H.(2015)。对象跟踪基准。IEEE模式分析和机器智能学报(TPAMI),37(9),1834-1848·doi:10.1109/TPAMI.2014.2388226
[62] Yilmaz,A.、Javed,O.和Shah,M.(2006年)。物体追踪:一项调查。ACM计算调查,38(4),13-57·doi:10.1145/1177352.1177355
[63] Zhang,C.,Liu,R.,Qiu,T.,&Su,Z.(2014年a)。通过增量低阶特征学习实现稳健的视觉跟踪。神经计算,131237-247·doi:10.1016/j.neucom.2013.10.020
[64] Zhang,K.,Liu,Q.,Wu,Y.,&Yang,M.H.(2016a)。通过卷积网络进行鲁棒视觉跟踪,无需训练。IEEE图像处理学报(TIP),25(4),1779-1792·Zbl 1408.94900号
[65] Zhang,K.、Zhang、L.和Yang,M.H.(2012a)。实时压缩跟踪。欧洲计算机视觉会议(ECCV)(第866-879页)。
[66] Zhang,K.、Zhang、L.和Yang,M.H.(2013a)。通过在线鉴别特征选择实时跟踪目标。IEEE图像处理学报(TIP),22(12),4664-4677·Zbl 1373.94825号 ·doi:10.1109/TIP.2013.2277800
[67] Zhang,T.、Bibi,A.和Ghanem,B.(2016b)。为保护稀疏跟踪:循环稀疏跟踪器。在CVPR中。
[68] Zhang,T.、Ghanem,B.、Liu,S.和Ahuja,N.(2012年B)。用于鲁棒视觉跟踪的低秩稀疏学习。欧洲计算机视觉会议(ECCV)(第470-484页)。
[69] Zhang,T.、Liu,S.、Xu,C.、Yan,S.,Ghanem,B.、Ahuja,N.和Yang,M.(2015)。结构稀疏跟踪。IEEE计算机学会计算机视觉和模式识别会议(CVPR)(第150-158页)。
[70] Zhang,T.、Liu,S.、Ahuja,N.、Yang,M.H.和Ghanem,B.(2014b)。通过一致的低秩稀疏学习实现稳健的视觉跟踪。国际计算机视觉杂志(IJCV),111(2),171-190·Zbl 1398.68605号 ·doi:10.1007/s11263-014-0738-0
[71] Zhang,S.、Yao,H.、Sun,X.和Lu,X.(2013b)。基于稀疏编码的视觉跟踪:回顾和实验比较。模式识别,46(7),1772-1788。
[72] Zhong,W.,Lu,H.,&Yang,M.H.(2012)。通过基于稀疏性的协作模型实现鲁棒目标跟踪。IEEE计算机学会计算机视觉和模式识别会议(CVPR)(第1838-1845页)。
[73] Zhong,W.,Lu,H.,&Yang,M.H.(2014)。通过稀疏协作外观模型实现稳健的对象跟踪。IEEE图像处理学报(TIP),23(5),2356-68·Zbl 1374.94689号 ·doi:10.1109/TIP.2014.2313227
[74] Zou,H.和Hastie,T.(2005)。通过弹性网进行规则化和变量选择。英国皇家统计学会期刊:B辑(统计方法论),67(2),301-320·Zbl 1069.62054号 ·文件编号:10.1111/j.1467-9868.2005.005.x
[75] Zou,H.、Hastie,T.和Tibshirani,R.(2006)。稀疏主成分分析。计算与图形统计杂志,15(2),265-286·doi:10.1198/106186006X113430
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。