×

根跨越超像素。 (英语) Zbl 1483.68475号

国际期刊计算。视觉。 128,第12期,2962-2978(2020); 更正同上129,第3号,803(2021)。
摘要:本文提出了一种新的超像素分割方法。它被表示为寻找一个图的根生成森林关于一些根和一个路径成本函数。底层图形表示图像,根用作分割的种子,每个像素通过路径连接到一个种子,路径成本函数通过路径测量两个像素之间的颜色相似性和空间紧密性,生成森林中的每棵树表示一个超像素。超级像素源于均匀分布的种子,由路径成本函数引导,以均匀自适应地增长,逐像素增长,直到覆盖整个图像。超级像素的数量由种子的数量控制。连通性由地区增长维持。通过将每个像素连接到由路径成本函数控制的类似种子,可以确保良好的性能。它通过超像素基准和超体素基准进行评估,其性能在最先进的方法中排名第二。此外,它比其他超像素和超体素方法快得多。

MSC公司:

68单位10 图像处理的计算方法
68兰特 计算机科学中的图论(包括图形绘制)
PDF格式BibTeX公司 XML格式引用
全文: DOI程序

参考文献:

[1] 阿坎塔,R。;沙吉,A。;Smith,K。;卢奇,A。;Fua,P。;Süsstrunk,S.,切片超像素与最先进的超像素方法的比较,IEEE模式分析和机器智能汇刊,34,11,2274-2282(2012)·doi:10.1109/TPAMI.2012.120
[2] Achanta,R.和Süsstrunk,S.(2017年)。使用简单非迭代聚类的超像素和多边形。2017年IEEE计算机视觉和模式识别会议(CVPR)(第4895-4904页)。电气与电子工程师协会。
[3] 阿列克谢,B。;Deselaers,T。;Ferrari,V.,《测量图像窗口的对象性》,IEEE模式分析和机器智能汇刊,34,11,2189-2202(2012)·doi:10.1109/TPAMI.2012.28
[4] 阿贝莱兹,P。;Maire,M。;Fowlkes,C。;Malik,J.,轮廓检测和分层图像分割,IEEE模式分析和机器智能汇刊,33,5,898-916(2011)·doi:10.1109/TPAMI.2010.161
[5] Arnab,A.、Jayasumana,S.、Zheng,S.和Torr,P.H.(2016)。深层神经网络中的高阶条件随机场。在欧洲计算机视觉会议上(第524-540页)。柏林:斯普林格。
[6] 博伊克斯,X。;吉咪·贡福斯(JM Gonfaus);Van de Weijer,J。;巴格达诺夫,AD;Serrat,J。;González,J.,《和谐潜力》,《国际计算机视觉杂志》,96,1,83-102(2012)·Zbl 1235.68246号 ·doi:10.1007/s11263-011-0449-8
[7] Chai,D.,SQL:通过四元标记的超像素,模式识别,92,52-63(2019)·doi:10.1016/j.patcog.2019.03.012
[8] Chang,J.、Wei,D.和Fisher,J.W.(2013)。使用时间超像素的视频表示。《IEEE计算机视觉和模式识别会议论文集》(第2051-2058页)。
[9] 科马尼丘,D。;Meer,P.,Mean shift:一种稳健的特征空间分析方法,IEEE模式分析和机器智能汇刊,24,5,603-619(2002)·doi:10.1109/34.1000236
[10] 科曼,TH;Leiserson,CE;铆钉,RL;Stein,C.,《算法导论》(2009),剑桥:麻省理工学院出版社,剑桥·Zbl 1187.68679号
[11] 科尔索,JJ;莎伦,E。;Dube,S。;埃尔萨登,S。;辛哈,美国。;Yuille,A.,《结合贝叶斯模型分类的高效多层次脑肿瘤分割》,IEEE医学成像学报,27,5,629-640(2008)·doi:10.1010/TMI.2007.912817
[12] Dijkstra,EW,关于与图有关的两个问题的注记,数字数学,1,1,269-271(1959)·Zbl 0092.16002号 ·doi:10.1007/BF01386390
[13] 法尔考,AX;斯托尔菲,J。;de Alencar,LR,《图像森林变换:理论、算法和应用》,IEEE模式分析和机器智能汇刊,26,1,19-29(2004)·doi:10.1109/TPAMI.2004.1261076
[14] Farabet,C。;库普利,C。;纳杰曼,L。;LeCun,Y.,学习场景标记的层次特征,IEEE模式分析和机器智能汇刊,35,81915-1929(2012)·doi:10.1109/TPAMI.2012.231
[15] Felzenszwalb,PF;Huttenlocher,DP,高效的基于图形的图像分割,国际计算机视觉杂志,59,2,167-181(2004)·Zbl 1477.68505号 ·doi:10.1023/B:VISI.0000022288.19776.77
[16] Gadde,R.、Jampani,V.、Kiefel,M.、Kappler,D.和Gehler,P.V.(2016)。使用双边激励的超像素卷积网络。在欧洲计算机视觉会议上(第597-613页)。柏林:斯普林格。
[17] Girshick,R.(2015)。快速R-CNN。2015年IEEE计算机视觉国际会议(ICCV)(第1440-1448页)。电气与电子工程师协会。
[18] Girshick,R.、Donahue,J.、Darrell,T.和Malik,J.(2014)。丰富的特征层次用于准确的对象检测和语义分割。IEEE计算机视觉和模式识别会议记录(第580-587页)。
[19] Gould,S.、Fulton,R.和Koller,D.(2009年)。将场景分解为几何和语义一致的区域。2009年IEEE第12届计算机视觉国际会议(第1-8页)。电气与电子工程师协会。
[20] Grundmann,M.、Kwatra,V.、Han,M.和Essa,I.(2010年)。高效的基于层次图的视频分割。2010年IEEE计算机视觉和模式识别会议(CVPR)(第2141-2148页)。电气与电子工程师协会。
[21] Guney,F.和Geiger,A.(2015)。置换:使用对象知识解决立体模糊性。IEEE计算机视觉和模式识别会议记录(第4165-4175页)。
[22] He,S。;Lau,RW公司;刘伟。;Huang,Z。;Yang,Q.,Supernn:用于显著目标检测的超像素卷积神经网络,国际计算机视觉杂志,115,3,330-344(2015)·doi:10.1007/s11263-015-0822-0
[23] 霍桑,J。;Benenson,R。;多尔,P。;Schiele,B.,有效检测建议的依据是什么?,IEEE模式分析和机器智能汇刊,38,4,814-830(2015)·doi:10.1109/TPAMI.2015.2465908
[24] 莱文斯坦,A。;Stere,A。;库图拉科斯,KN;舰队、DJ;迪金森,SJ;Siddiqi,K.,Turboixels:使用几何流的快速超像素,IEEE模式分析和机器智能学报,31,12,2290-2297(2009)·doi:10.1109/TPAMI.2009.96
[25] Liu,M.Y.、Tuzel,O.、Ramalingam,S.和Chellappa,R.(2011)。熵率超像素分割。2011年IEEE计算机视觉和模式识别会议(CVPR)(第2097-2104页)。电气与电子工程师协会。
[26] Liu,Y.,Jiang,P.T.,Petrosyan,V.,Li,S.J.,Bian,J.,Zhang,L.等人(2018)。DEL:用于有效图像分割的深度嵌入学习。IJCAI(第864-870页)。
[27] 卢奇,A。;Smith,K。;阿坎塔,R。;Knott,G。;Fua,P.,基于Supervisoxes的em图像堆栈中线粒体分割及学习形状特征,IEEE医学成像汇刊,31,2,474-486(2012)·doi:10.1109/TMI.2011.2171705
[28] 米丘西克,B。;Košecká,J.,《城市环境中的多视点超像素立体声》,《国际计算机视觉杂志》,89,1,106-119(2010)·doi:10.1007/s11263-010-0327-9
[29] Moore,A.P.、Prince,S.J.和Warrell,J.(2010年)。“格子切割”-使用层约束构造超像素。2010年IEEE计算机视觉和模式识别会议(CVPR)(第2117-2124页)。电气与电子工程师协会。
[30] Moore,A.P.、Prince,S.J.、Warrell,J.、Mohammed,U.和Jones,G.(2008)。超像素晶格。在2008年IEEE计算机视觉和模式识别会议上。CVPR 2008(第1-8页)。电气与电子工程师协会。
[31] Mostajabi,M.、Yadollahpour,P.和Shakhnarovich,G.(2015)。带有缩小特征的前馈语义分割。IEEE计算机视觉和模式识别会议记录(第3376-3385页)。
[32] Ren,X.和Malik,J.(2003)。学习用于分割的分类模型。空白(第10页)。电气与电子工程师协会。
[33] Sharon,E.、Brandt,A.和Basri,R.(2000)。快速多尺度图像分割。在2000年IEEE计算机视觉和模式识别会议上。会议记录(第1卷,第70-77页)。电气与电子工程师协会。
[34] 史J。;Malik,J.,标准化切割和图像分割,IEEE模式分析和机器智能汇刊,22,8,888-905(2000)·数字对象标识代码:10.1109/34.868688
[35] Silberman,N.、Hoiem,D.、Kohli,P.和Fergus,R.(2012)。室内分割和支持RGBD图像的推断。在欧洲计算机视觉会议上(第746-760页)。柏林:斯普林格。
[36] Song,S.、Lichtenberg,S.P.和Xiao,J.(2015)。Sun RGB-D:RGB-D场景理解基准套件。《IEEE计算机视觉和模式识别会议论文集》(第567-576页)。
[37] 斯图兹,D。;Hermans,A。;Leibe,B.,《超像素:最先进技术的评估》,《计算机视觉和图像理解》,166,1-27(2018)·doi:10.1016/j.cviu.2017.03.007
[38] Tsai,Y.H.、Yang,M.H.和Black,M.J.(2016)。通过对象流进行视频分割。IEEE计算机视觉和模式识别会议记录(第3899-3908页)。
[39] Tu,W.C.,Liu,M.Y.,Jampani,V.,Sun,D.,Chien,S.Y.,Yang,M.H.等人(2018年)。学习具有分割软件亲和力损失的超像素。在IEEE计算机视觉和模式识别(CVPR)会议上。
[40] Uijlings,JR;肯塔基州范德桑德;Gevers,T。;Smeulders,AW,物体识别的选择性搜索,国际计算机视觉杂志,104,2,154-171(2013)·doi:10.1007/s11263-013-0620-5
[41] 范登伯格,M。;博伊克斯,X。;Roig,G。;Van Gool,L.,《种子:通过能量驱动采样提取的超像素》,《国际计算机视觉杂志》,第111、3、298-314页(2015年)·doi:10.1007/s11263-014-0744-2
[42] Vedaldi,A.和Soatto,S.(2008年)。模式搜索的快速移位和内核方法。在欧洲计算机视觉会议上(第705-718页)。柏林:斯普林格。
[43] Veksler,O.、Boykov,Y.和Mehrani,P.(2010年)。能量优化框架中的超像素和超体素。欧洲计算机视觉会议(第211-224页)。柏林:斯普林格。
[44] 文森特,L。;Soille,P.,《数字空间中的分水岭:基于沉浸模拟的高效算法》,IEEE模式分析与机器智能汇刊,6583-598(1991)·数字对象标识代码:10.1109/34.87344
[45] Wang,J。;Wang,X.,VCells:使用边缘加权质心voronoi细分的简单高效超像素,IEEE模式分析和机器智能汇刊,34,6,1241-1247(2012)·doi:10.1109/TPAMI.2012.47
[46] 王,P。;曾庚。;甘·R。;Wang,J。;Zha,H.,通过测地距离的结构敏感超像素,国际计算机视觉杂志,103,1,1-21(2013)·Zbl 1270.68358号 ·doi:10.1007/s11263-012-0588-6
[47] Wang,S.、Lu,H.、Yang,F.和Yang,M.H.(2011)。超像素跟踪。2011年IEEE计算机视觉国际会议(ICCV)(第1323-1330页)。电气与电子工程师协会。
[48] Wertheimer,M.(1938年)。感性形式的组织规律。格式塔心理学源书(第71-88页)。
[49] 徐。C.和Corso,J.J.(2012年)。早期视频处理的超视轴方法评估。2012年IEEE计算机视觉和模式识别会议(CVPR)(第1202-1209页)。电气与电子工程师协会。
[50] 徐,C。;Corso,JJ,Libsvx:早期视频处理的超体素库和基准,《国际计算机视觉杂志》,119,3,272-290(2016)·doi:10.1007/s11263-016-0906-5
[51] Yamaguchi,K.、Kiapour,M.H.、Ortiz,L.E.和Berg,T.L.(2012年)。解析时尚照片中的服装。2012年IEEE计算机视觉和模式识别会议(CVPR)(第3570-3577页)。电气与电子工程师协会。
[52] Yao,J.、Boben,M.、Fidler,S.和Urtasun,R.(2015)。实时粗到细拓扑保持分割。《IEEE计算机视觉和模式识别会议论文集》(第2947-2955页)。
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。