×

兹马思-数学第一资源

SP流:用于实时SLAM的自监督光流对应点预测。(英语) Zbl 07257411
摘要:本文提出了一种称为SP-Flow的自监督学习网络来实时生成SLAM系统的关键点。在SP流的训练过程中,利用光流来匹配两个连续帧之间的关键点。这种方法使网络能够使用无需手动注释的数据集。为了证明SP流的有效性,我们在ORB-SLAM2系统中用SP流代替ORB,建立了一个SP流SLAM系统。实验结果表明,我们的SLAM系统能够以立体或RGB-D图像作为输入,实现实时性和高精度。
理学硕士:
68T07型 人工神经网络与深度学习
PDF格式 双歧杆菌 引用
全文: 内政部
参考文献:
[1] 阿莱托,S。;阿巴提,D。;火山口,南部。;库奇亚拉,R。;李志浩,L.,《投影引导法自监督光流估计》,IEEE Trans。因特尔。运输。系统,203294-3302(2018年)
[2] 布格,J。Y、 ,金字塔实现仿射卢卡斯卡纳德特征跟踪算法描述,英特尔公司微处理器。研究实验室,5,4(2001)
[3] 加州理工大学。;麻风,V。;斯特雷查,C。;Fua,P.,简介:二进制鲁棒独立基本特征,(欧洲计算机视觉会议论文集(2010)),778-792
[4] 崔,C。B、 。;格瓦克,J。;萨瓦雷斯。;Chandraker,M.,通用通信网络(神经信息处理系统进展(2016)),2414-2422
[5] 耳甲、耳甲。;Civera,J.,Rgbdtam:一个成本效益高且精确的rgb-d跟踪和绘图系统,(2017 IEEE/RSJ智能机器人和系统国际会议(2017)),6756-6763
[6] 德通,D。;Malisiewicz,T。;Rabinovich,A.,自我改进视觉里程计(2018)
[7] 德通,D。;Malisiewicz,T。;Rabinovich,A.,Superpoint:自监督兴趣点检测与描述,(IEEE计算机视觉与模式识别研讨会论文集(2018)),224-236
[8] 恩格尔,J。;科尔顿,V。;Cremers,D.,直接稀疏里程计,IEEE Trans。肛门模式。机器。国际,40611-625(2018年)
[九] 恩格尔,J。;舍普,T。;Cremers,D.,Lsd slam:大规模直接单目slam,(欧洲计算机视觉会议论文集(2014)),834-849
[10] 恩格尔,J。;Stückler,J。;Cremers,D.,带立体摄像机的大型直接撞击,(2015 IEEE/RSJ智能机器人和系统国际会议(2015)),1935-1942
[11] Farnebäck,G.,基于多项式展开的两帧运动估计,(斯堪的纳维亚图像分析会议(2003)),363-370·Zbl 1040.68627
[12] 高,X。;张,T。;刘,Y。;严,问。R、 ,视觉冲击从理论到应用的十四课(2017)
[13] 盖革,A。;伦茨,P。;斯蒂勒,C。;《视觉与机器人技术:kitti数据集》,Int.J。机器人。第32号决议,1231-1237(2013年)
[14] 他,K。;张,X。;任,S。;Sun,J.,图像识别的深度剩余学习,(IEEE计算机视觉和模式识别会议论文集(2016)),770-778
[15] 柯尔,C。;斯特姆,J。;Cremers,D.,rgb-D摄像机的密集视觉冲击(2013 IEEE/RSJ智能机器人和系统国际会议(2013)),2100-2106
[16] 金马,D。P、 。;Ba,J.,Adam:随机优化方法(2014)
[17] 利布,D。;看比尔,A。;Thrun,S.,使用自监督学习和反向光流的自适应道路跟踪(机器人学:科学与系统(2005)),273-280
[18] 刘,P。;吕,M。;国王,我。;徐杰,自流:光流的自监督学习,(IEEE计算机视觉与模式识别会议论文集(2019)),4571-4580
[19] 朗,J。;谢尔哈默E。;Darrell,T.,语义分割的完全卷积网络(IEEE计算机视觉和模式识别会议论文集(2015)),3431-3440
[20] 洛伊,D。G、 ,来自尺度不变关键点的独特图像特征。计算机。第60、91-110页(2004年)
[21] 卢卡斯,B。D、 。;Kanade,T.,迭代图像配准技术及其在立体视觉中的应用,Ann。物理(1981年)
[22] 马亨德兰,A。;泰利斯,J。;Vedaldi,A.,用于自监督学习的跨像素光流相似性,(亚洲计算机视觉会议(2018)),99-116
[23] 梅斯特,S。;赫尔,J。;Roth,S.,Unflow:无监督学习光流与双向普查损失(第三十二届AAAI人工智能会议(2018年))
[24] 门泽,M。;Geiger,A.,自动车辆的物体场景流,(IEEE计算机视觉和模式识别会议论文集(2015)),3061-3070
[25] Mikolajczyk,K。;Schmid,C.,局部描述符的性能评估,IEEE Trans。肛门模式。机器。国际,27,1615-1630(2005)
[26] 穆尔阿特尔,R。;塔多斯,J。D、 ,Orb-slam2:用于单目、立体和rgb-D相机的开源slam系统,IEEE Trans。机器人,331255-1262(2017)
[27] 小野,Y。;特鲁尔斯E。;福亚,P。;易,K。M、 《神经系统学习进展》,6234,局部信息处理(6234-62LF)
[28] 任,Z。;严,J。;镍、硼。;刘,B。;杨,X。;Zha,H.,光流估算的无监督深度学习(第三十一届人工智能学术大会(2017年))
[29] 罗斯滕,E。;Drummond,T.,高速角点检测的机器学习,(欧洲计算机视觉会议论文集(2006)),430-443
[30] 鲁布利E。;拉博,V。;科诺里奇,K。;布拉斯基,G。R、 ,Orb:sift或surf的有效替代方案(IEEE国际计算机视觉会议论文集,第11卷(2011)),2
[31] 施密德,C。;莫尔,R。;Bauckhage,C.,兴趣点探测器评估,国际期刊。计算机。第37、151-172页(2000年)·Zbl 0985.68625
[32] 施洛夫,F。;Kalenichenko,D。;Philbin,J.,Facenet:人脸识别和聚类的统一嵌入,(IEEE计算机视觉和模式识别会议论文集(2015)),815-823
[33] 施,W。;卡巴莱罗,J。;胡斯扎尔,F。;托茨,J。;艾特肯,A。P、 。;主教,R。;鲁克特,D。;Wang,Z.,使用高效亚像素卷积神经网络的实时单图像和视频超分辨率(IEEE计算机视觉和模式识别会议论文集(2016)),1874-1883
[34] 西莫·塞拉,E。;特鲁尔斯E。;费拉兹,L。;科基诺斯一世。;福亚,P。;Moreno Noguer,F.,深度卷积特征点描述符的判别学习,(IEEE国际计算机视觉会议论文集(2015)),118-126
[35] 斯特姆,J。;恩格哈德,N。;Endres,F。;W.伯加德。;Cremers,D.,rgb-D slam系统评估基准,(2012 IEEE/RSJ智能机器人和系统国际会议(2012)),573-580
[36] 唐,J。;埃里克森,L。;福尔克森,J。;Jensfelt,P.,Gcnv2:实时slam的有效对应预测,IEEE机器人。自动驾驶。利特,3505-3512(2019年)
[37] 唐,J。;福尔克森,J。;Jensfelt,P.,摄像机运动估计的几何对应网络,IEEE机器人。自动驾驶。利特,31010-1017(2018年)
[38] 塔特诺,K。;托巴里,F。;莱纳,I。;Navab,N.,Cnn slam:具有学习深度预测的实时密集单目slam,(IEEE计算机视觉和模式识别会议论文集(2017)),6243-6252
[39] 威尔第,Y。;易,K。;福亚,P。;Lepetit,V.,Tilde:一种时间不变的学习检测器,(IEEE计算机视觉和模式识别会议论文集(2015)),5279-5288
[40] 惠兰,T。;萨拉斯莫雷诺,R。F、 。;格洛克,B。;戴维森,A。J、 。;Leutenegger,S.,弹性融合:实时密集slam和光源估计,国际期刊。机器人。第351697-1716号决议(2016年)
[41] 杨,Y。;洛奎西奥,A。;斯卡拉穆扎,D。;Soatto,S.,基于上下文信息分离的无监督运动目标检测,(IEEE计算机视觉和模式识别会议论文集(2019)),879-888
[42] 杨,N。;王,R。;斯图克勒,J。;Cremers,D.,《深度虚拟立体里程计:利用单目直接稀疏里程计的深度预测》,《欧洲计算机视觉会议论文集(2018年)》,817-833
[43] 易,K。M、 。;特鲁尔斯E。;麻风,V。;Fua,P.,Lift:学习不变特征变换,(欧洲计算机视觉会议论文集(2016)),467-483
[44] 阴,Z。;《计算机视觉的密集模式识别与计算机视觉研究会议论文集》,1983年
此参考列表基于出版商或数字数学图书馆提供的信息。它的项被试探性地匹配到zbMATH标识符,并且可能包含数据转换错误。它试图尽可能准确地反映原始论文中列出的参考文献,而不要求匹配的完整性或精确性。