{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期部分”:[[2024,4,29]],“日期时间”:“2024-04-29T14:33:08Z”,“时间戳”:1714401188634},“参考计数”:25,“出版商”:“富士科技出版社”,“问题”:“5”,“资助者”:[{“DOI”:“10.13039\/501100004826”,“名称”:“北京自然科学基金会”市政当局”,“doi-asserted-by”:“publisher”,“award”:[“4202041”]},{“doi”:“10.13039\/100000001”,“name”:“National Science Foundation”,“doiasserted-by“:”publisher“,”award“:[”41874034“]}”,{”doi“:”10.13039\/501100012166“,”name“:”中国国家重点研发计划“,”doi-assert-by“,”:“publisher”,“adward”:[”2016YFB0502102“]{”doi“”:“10.13039\/501100004750”,“name”:“中国航空科学基金会”,“doi-asserted-by”:“publisher”}],“content-domain”:{“domain”:[],“crossmark-restriction”:false},“short-container-title”:[“JACIII”,“J.Adv.Comput.Intell.Inform.”],“published-print”:{“date-parts”:[2022,9,20]},”abstract“:”视觉SLAM系统需要精确定位。为了获得一致的特征匹配结果,在纹理较弱、运动模糊或模式重复的情况下,越来越多地使用神经网络获取的视觉特征来代替传统的手动特征。然而,为了提高准确度,大多数深度学习增强了SLAM系统,这会降低效率。在本文中,我们提出了粗糙TRVO,一种使用深度学习进行特征匹配的视觉里程计系统。深度学习网络使用CNN和变换器结构为一对图像提供密集的高质量端到端匹配,即使在低纹理区域或重复图案占据大部分视野的模糊设置下也是如此。同时,我们使该模型与NVIDIA TensorRT运行时兼容,以提高算法的性能。在获得匹配点对后,通过最小化特征点的再投影误差,以优化的方式求解相机姿态。基于多个数据集和实际环境的实验表明,与当前主流的视觉SLAM系统相比,粗TRVO具有更高的鲁棒性和相对定位精度<\/jats:p>“,”DOI“:”10.20965\/jacii.2022.p0731“,”type“:”journal-article“,”created“:{”date-parts“:[[2022,9,19]],”date-time“:”2022-09-19T15:02:06Z“,”timestamp“:1663599726000},”page“:“],”前缀“:”10.20965“,”卷“:”26“,”作者“:[{”给定“:”余杭“,”家庭“:”高“,”序列“:”第一“,”从属“:[]},{”名称“:”北京航空航天大学自动化科学与电气工程学院,100191,中国北京,”序列”:“第一”,”从属关系“:[]},“给定”:“龙”,“家庭”:“赵”,“序列”:”附加“,”隶属关系“:[]}],“成员”:“8550”,“在线发布”:{“date-parts“:[[2022,9,20]]},”reference“:[{”key“:”key-10.20965\/jacii.2022.p0731-1“,”doi-asserted-by“:”crossref“,”unstructured“:”D.G.Lowe,\u201cScale-Invariant Keypoints的区别图像特征,《计算机视觉国际杂志》,第60卷,第91-110页,2004年。“,”doi“:”10.1023\/B:VISI.0002964.99615.94“},{”key“:“”key-10.20965\/jacii.2022.p0731-2“,”doi-asserted-by“:”crossref“,”unstructured“:”H.Bay,A.Ess,T.Tuytelaars,and L.V.Gool,\u201cSpeeded-Up Robust Features(SURF),\u201 d Computer Vision and Image Understanding,Vol.110,Issue 3,pp.346-3592008.“,”doi“:”10.1016\/j.cviu.2007.014“},”{“key”:“key-10.201965\/yacii.2022.p0731-3“,”doi-asserted-by“:”crossref“,”unstructured“:”E.Rublee,V.Rabaud,K.Konolige,and G.Bradski,\u201cORB:SIFT或SURF的有效替代品,2011年国际计算机视觉会议,第2564-2571页,2011年。“”doi“:”10.1109\/ICCV.2011.6126544“},”{“key”:“key-10.20965\/jacii.2022.p0731-4”,“非结构化”:“R.Kang,J.Shi,X.Li,Y.Liu,and X。Liu,\u201cDF-SLAM:基于深度局部特征的深度学习增强型视觉SLAM系统,\u201 d arXiv:1901.072232019。“},{“key”:“key-10.20965\/jacii.2022.p0731-5”,“doi-asserted-by”:“crossref”,“unstructured”:“J.Sun,Z.Shen,Y.Wang,H.Bao,and X。Zhou,\u201cLoFTR:与变压器匹配的无检测器局部特征,\u201 d Proc。IEEE计算机视觉和模式识别会议(CVPR),第8922-89312021页。”,“DOI”:“10.1109”,{“key”:“key-10.20965”,jacii.2022.p0731-6“,“unstructured”:“A.Vaswani,N.Shazeer,N.Parmar,J.Uszkoreit,L.Jones,A.N.Gomez,\u0141。Kaiser和I.Polosukhin,《注意力就是你所需要的》,《201d I.Guyon,U.V.Luxburg,S.Bengio,H.Wallach,R.Fergus,S.Vishwanathan,and R.Garnett(Eds.),《神经信息处理系统进展30》,《Curran Associates,Inc.,2017》。Kolodiazhnyi,\u201cLocal Feature Matching with Transformers for Low-End Devices,\u201 d arXiv:22022.007702022.“},{”key“:”key-10.20965\/jacii.2022.p0731-8“,”doi-asserted-by“:”crossref“,“unstructured”:“Y.Kameda,\u202cParallel tracking and mapping for small AR workspaces(PTAM)增强现实,《图像信息与电视工程师学会杂志》,第66卷,第1期,第45-51页,2012年。“,“DOI”:“10.3169”,{“key”:“key-10.20965”,jacii.2022.p0731-9“,“DOI-asserted-by”:“crossref”,“unstructured”:“R.Mur-Artal,J.M.Montiel,and J.D。Tard\u00f3s,\u201cORB-SLAM:一个多功能和精确的单目SLAM系统,\u201 d IEEE Trans。关于机器人学,第31卷,第5期,第1147-11632015页。Tard\u00f3s,\u201cORB-SLAM2:一个用于单眼、立体声和RGB-D相机的开源SLAM系统,\u201d IEEE Trans。《机器人学》,第33卷,第5期,第1255-1262页,2017年。“,“DOI”:“10.1109\/TRO.2017.2705103”},{“key”:“key-10.20965\/jacii.2022.p0731-11”,“DOI-asserted-by”:“crossref”,《非结构化》:“C.Campos,R.Elvira,J.J.G.Rodr\u00edguez,J.M.Montiel,and J.D。Tard\u00f3s,\u201cORB-SLAM3:一个精确的开放源码库,用于可视化、可视化\u2013惯性和多映射SLAM,\u201 d IEEE Trans。《机器人学》,第37卷,第6期,第1874-1890页,2021年。“,“DOI”:“10.1109\/TRO.2021.3075644”},{“key”:“key-10.20965\/jacii.2022.p0731-12”,“DOI-asserted-by”:“crossref”,《非结构化》:“T.Qin,P.Li,and S。Shen,\u201cVINS-Mono:一种稳健且通用的单目视觉惯性状态估计器,\u201 d IEEE Trans。《机器人学》,第34卷,第4期,第1004-1020页,2018年。“,“DOI”:“10.1109”,“TRO.2018.2853729”},{“key”:“key-10.20965”,jacii.2022.p0731-13“,”DOI-asserted-by“:”crossref“,“unstructured”:“J.Tang,L.Ericson,J.Folkesson,and P。Jensfelt,\u201cGCNv2:实时SLAM的有效通信预测,《IEEE机器人技术与自动化快报》,第4卷,第4期,第3505-3512页,2019年。乔,\u201cDXSLAM:一个强大而高效的视觉SLAM系统,具有深层次的功能,《2020 IEEE智能机器人和系统(IROS)国际会议》,第4958-4965页,2020年。“,“DOI”:“10.1109”,“IROS45743.2020.9340907”},{“key”:“key-10.20965”,jacii.2022.p0731-15“,”DOI-asserted-by“,”crossref“,“unstructured”:“P.-E.Sarlin,C.Cadena,R。Siegwart和M.Dymczyk,《从粗略到精细:大规模鲁棒分层定位》,2019年IEEE计算机视觉和模式识别(CVPR)会议,第12708-12717页,2019。“,“DOI”:“10.1109”:“CVPR.2019.01300”},{“密钥”:“key-10.20965”,jacii.2022.p0731-16“,”DOI-asserted-by“,”crossref“非结构化”:“D.DeTone,T。Malisiewicz和A.Rabinovich,\u201cSuperPoint:自我监督兴趣点检测和描述,\u201 d Proc。IEEE计算机视觉和模式识别(CVPR)研讨会,第224-236页,2018年。“,“DOI”:“10.1109”,“CVPRW.2018.00060”},{“key”:“key-10.20965”,“jacii.2022.p0731-17”,“unstructured”:“Y.Gao和L.Zhao,“u201cTRVO:一种具有深度特征的稳健视觉里程测定法,”,第七国际。高级计算智能和智能信息学(IWACIII)研讨会,2021年。“},{“key”:“key-10.20965\/jacii.2022.p0731-18”,“unstructured”:“D.DeTone,T.Malisiewicz,and A.Rabinovich,\u201cToward geometrical deep SLAM,\u201 D arXiv:1707.074102017。”},},“key“:”key-10.201965\/JAcii.2022.p0731-19“,”doi-asserted-by“:”crossref“非结构化”:“P.-E.Sarlin,D.DeTone,T.Malisiewicz,A.Rabinovich,\u201cSuperglue:与图形神经网络的学习特征匹配,\u201 D Proc。IEEE计算机视觉和模式识别会议(CVPR),第4938-4947页,2020年。“,”DOI“:”10.1109“/CVPR42600.2020.00499“},{”key“:”key-10.20965“/jacii.2022.p0731-20“,”DOI-asserted-by“:”crossref“,”unstructured“:”Q.Zhou,T.Sattler,and L。Leal-Taixe,\u201cPatch2pix:Epipolar-guided pixel-level corresponses,\u201 d Proc。IEEE计算机视觉和模式识别会议(CVPR),第4669-4678页,2021年。“,”DOI“:”10.1109“/CVPR46437.2021.00464“},{”key“:”key-10.20965“/jacii.2022.p0731-21“,”DOI-asserted-by“:”crossref“,”unstructured“:”M.A.Fischler和R.C。Bolles,《随机样本共识:模型拟合与图像分析和自动制图应用的范例》,《ACM通信》,第24卷,第6期,第381-395页,1981年。“,“DOI”:“10.1145”,“358669.358692”},{“key”:“key-10.20965”,jacii.2022.p0731-22”,“非结构化”:“R.K\u00fcmmerle,G.Grisetti,H.Strasdat,K。Konolige和W.Burgard,\u201cG2o:图形优化的通用框架,\u201d 2011 IEEE Int.Conf.on Robotics and Automation,pp.3607-3613,2011.“},{“key”:“key-10.20965\/jacii.222.p0731-23”,“非结构化”:“S.Agarwal,K.Mierle和谷神星解算器团队,\u201cCeres解算器,\u201d http:\/\/Ceres-Solver.org[访问日期:2021年6月15日]”},{“key”:“key-10.20965\/jacii.2022.p0731-24”,“doi-asserted-by”:“crossref”,“unstructured”:“T.Sattler,W.Maddern,C.Toft,A.Torii,L.Hammarstrand,E.Stenborg,D.Safari,M.Okutomi,M.Pollefeys,J.Sivic,F.Kahl,and T。Pajdla,\u201cBenchmarking 6DOF变化条件下的室外视觉定位,\u201 d Proc。IEEE计算机视觉和模式识别会议(CVPR),第8601-8610页,2018年。“,”DOI“:”10.1109\/CVPR.2018.00897“},{“key”:“key-10.20965\/jacii.2022.p0731-25”,“unstructured”:“M.Grupp,\u201cevo:用于里程计和SLAM评估的Python包,\u201 d https:\/\/github.com\/MichaelGrupp\/evo[2022年2年2月21日访问]”}],“container-title“:[“高级计算智能与智能信息学杂志”],“original-title”:[],“language”:“en”,“link”:[{“URL”:“https:\/\/www.fujipress.jp\/main\/wp-content\/themes\/fujipress\/hyosetsu.php?ppno=JACIL002600050008”,“content-type”:“unspecified”,“content-version”:“vor”,“intended-application”:“similarity-checking”}],“deposed”:{“date-parts”:[[2022,9,19]],“date-time”:“2022-09-19T15:03:39Z”,“timestamp”:1663599819000},“score”:1,“resource”:}“primary”:{“URL”:“https:\/\/www.fujipress.jp\/jacii\/jc\/jaciai002600050731”},”subtitle“:[],”shorttitle“:[],”issued“:{”date-part“:[2022,9,20]]},“references-count”:25,“journal-issue”:{“issue”:“5”,“published-online”:{“date-parts”:[[2022,9,20]]},“published-print”:{”date-part“:[[22022,9,20]]}},”URL“:”http://\/dx.doi.org\/10.20965\/jacii.2022.p0731“,”relation“:{},‘ISSN’:[”1883-8014“,”1343-0130“],‘ISSN-type’:[{“value”:“1883-8016”,“type”:”electronic“},{”value“:”1343-0130“,”type“:”print“}],”subject“:[],”published“:{”date-parts“:[2022,9,20]]}}