跳到主要内容
10.1145/3647444.3652453其他会议文章/章节视图摘要出版物页面icimmi公司会议记录会议集合
研究论文

利用多维特征融合提高云注册的安全性

出版:2024年5月13日出版历史

摘要

数据挖掘利用人工智能等方法从大型数据集中提取隐藏的潜在信息,为从大量信息中获取有价值的知识提供了一种有效的方法。在使用深度学习解决点云注册任务的过程中,数据挖掘也是普遍存在的。全局特征提取和刚体变换估计是不相关点云配准的两个关键阶段。挖掘隐藏在这两个阶段的丰富信息是点云配准的基本任务之一。然而,最近提出的方法在提取全局特征时往往忽略低维局部特征,导致大量点云信息丢失,使得后续刚体变换估计阶段求解变换参数的精度不高。本文提出了一种基于多维信息融合的特征挖掘网络,彻底挖掘点云中的高维全局信息和低维局部信息,有效弥补了全球点云注册特征提取阶段局部特征的不足。在刚体变换估计阶段,使用对偶四元数来估计姿态,该四元数可以同时表示标准帧中的旋转和平移,为姿态估计提供了简洁准确的表示。最后,在ModelNet40数据集上的大量实验表明,与现有的无对应点的先进点云配准方法相比,该方法可以实现更高的精度,并且对噪声更具鲁棒性。

参考文献

  1. Y.Jeon和S.-W.Seo,“EFGHNet:一个适用于极端室外环境的多功能图像对点云注册网络”,收录于IEEE Robotics and Automation Letters,第7卷,第3期,第7511-7517页,doi:10.1109/LRA.2022.3183899(2020)谷歌学者谷歌学者交叉引用交叉引用
  2. B.L.íagar、E.Yurtsever、A.Peters和A.C.Knoll,“以对象为中心的对齐点云注册”,IEEE Access,第10卷,第76586-76595页,doi:10.1109/ACCES.2022.3191352(2022)谷歌学者谷歌学者交叉引用交叉引用
  3. P.Zhang,“基于机载激光雷达和基于U-Net深度学习模型分割的摄影测量点云融合的三维城市建筑提取”,IEEE Access,第10卷,第20889-20897页,doi:10.1109/ACCES.2022.3152744(2022)谷歌学者谷歌学者交叉引用交叉引用
  4. F.Wang、J.Xiao和Y.Wang,“使用$n$-点全图进行有效的岩体点云配准”,载于IEEE地球科学与遥感汇刊,第57卷,第11期,第9332-9343页,doi:10.1009/TGRS.2019.92926201(2019)谷歌学者谷歌学者交叉引用交叉引用
  5. L.Xu、J.Feng、X.Li和C.Liu,“TLS LiDAR数据和基于图像的重建数据的自动配准方法”,IEEE Geoscience and Remote Sensing Letters,第16卷,第3期,第482-486页,doi:10.1109/LGRS.2018.2875178(2019)谷歌学者谷歌学者交叉引用交叉引用
  6. W.Yang,Y.Liu,H.He,H.Lin,G.Qiu和L.Guo,“根据街道网络分割提取城市树木指标的机载激光雷达和摄影测量点云融合”,IEEE Access,第9卷,第97834-97842页,doi:10.1109/ACCES.2021.3094307(2021)谷歌学者谷歌学者交叉引用交叉引用
  7. E.Arnold、S.Mozaffari和M.Dianati,“部分重叠点云的快速稳健注册”,《IEEE机器人与自动化快报》,第7卷,第2期,第1502-1509页,doi:10.1109/LRA.2021.3137888(2022)谷歌学者谷歌学者交叉引用交叉引用
  8. Y.Zhang和Z.Cui,“使用球面外极线和球面绝对定向模型进行地面激光雷达和全景图像的注册”,IEEE传感器杂志,第22卷,第13期,第13088-13098页,doi:10.1109/JSEN.2022.3175621(2022)谷歌学者谷歌学者交叉引用交叉引用
  9. H.Yu、W.Zhen、W.Yang和S.Scherer,“结构化环境中基于线的2-D–3-D注册和摄像机定位”,《IEEE仪器和测量学报》,第69卷,第11期,第8962-8972页,doi:10.1109/TIM.2020.2999137(2020)谷歌学者谷歌学者交叉引用交叉引用
  10. J.Ge,“低成本RGB-D相机机器人喷涂复杂工件的在线三维建模”,《IEEE仪器与测量学报》,第70卷,第1-13页,第5011013号,doi:10.1109/TIM.2021.3083425(2021)谷歌学者谷歌学者交叉引用交叉引用
  11. L.Mu,P.Yao,Y.Zheng,K.Chen,F.Wang和N.Qi,“基于2D LiDAR和深度相机融合的移动机器人SLAM算法研究”,IEEE Access,第8卷,第157628-157642页,doi:10.1109/ACCES.2020.3019659(2020)谷歌学者谷歌学者交叉引用交叉引用
  12. W.Zhen,Y.Hu,J.Liu和S.Scherer,“激光雷达-摄像机融合用于精确密集三维重建的联合优化方法”,收录于IEEE Robotics and Automation Letters,第4卷,第4期,第3585-3592页,doi:10.1109/LRA.2019.2928261(2019)谷歌学者谷歌学者交叉引用交叉引用
  13. Y.Zhang,J.Xie,J.M.álvarez,C.-Z.Xu,J.Yang和H.Kong,“利用RGB-FIR混合成像进行道路检测”,《IEEE智能交通系统汇刊》,第23卷,第8期,第13819-13834页,doi:10.1109/TITS.2021.3129692(2022)谷歌学者谷歌学者交叉引用交叉引用
  14. C.T Dora Pravina、Mrunalini Upendra Buradkar、Khalid Jamal、Ashish Tiwari、Udit Mamodiya和Dinesh Goyal。2023.基于图像加密的工业物联网(IIoT)中可持续和安全的云资源供应系统。《第四届信息管理与机器智能国际会议论文集》(ICIMMI’22)。美国纽约州纽约市计算机协会,第18条,1-5。https://doi.org/10.1145/3590837.3590855谷歌学者谷歌学者数字图书馆数字图书馆
  15. M.阿拉斯。穆尼奥斯·巴尼翁(Muñoz-Bañón)、F.A.Candelas和F.Torres,“非结构化环境中的无目标摄像机-激光雷达校准”,IEEE Access,第8卷,第143692-143705页,doi:10.1109/ACCES.2020.3014121(2020)谷歌学者谷歌学者交叉引用交叉引用
  16. Y.Wu、M.Zhu和J.Liang,“PSNet:LiDAR和使用并行子网的摄像机注册”,IEEE Access,第10卷,第70553-70561页,doi:10.1109/ACCES.2022.3186974(2022)谷歌学者谷歌学者交叉引用交叉引用
  17. W.Shi,D.Zhu,L.Du,G.Zhang,J.Li和X.Zhang,“用于3D点匹配的分层注意力融合描述符”,IEEE Access,第7卷,第77436-77447页,doi:10.1009/Access.2019.2921828(2019)谷歌学者谷歌学者交叉引用交叉引用
  18. S.Fang、H.Li和M.Yang,“用于多车辆协同定位的自适应立方体分裂协方差交集滤波器”,载于IEEE Robotics and Automation Letters,第7卷,第2期,第1158-1165页,doi:10.1109/LRA.2021.3137889(2022)谷歌学者谷歌学者交叉引用交叉引用
  19. S.K.Sunori、D.K.Singh、A.Mittal、S.Maurya、U.Mamodiya和P.K.Juneja,“使用支持向量机进行降雨分类”,2021年第五届I-SMAC(社会、移动、分析和云中的物联网)国际会议,印度帕拉达姆,2021,第433-437页,doi:10.1109/I-SMAC52330.2021.9640773。谷歌学者谷歌学者交叉引用交叉引用
  20. A.Reinke,“LOCUS 2.0:用于实时3D绘图的稳健且计算效率高的激光雷达里程表”,载于IEEE Robotics and Automation Letters,第7卷,第4期,第9043-9050页,doi:10.1109/LRA.2022.3181357(2022)谷歌学者谷歌学者交叉引用交叉引用

索引术语

  1. 利用多维特征融合提高云注册的安全性

        建议

        评论

        登录选项

        检查您是否可以通过登录凭据或您的机构访问本文。

        登录

        完全访问权限

        • 文章指标

          • 下载次数(过去12个月)4
          • 下载次数(最近6周)4

          其他指标

        PDF格式

        以PDF文件查看或下载。

        PDF格式

        电子阅读器

        使用eReader联机查看。

        电子阅读器

        HTML格式

        以HTML格式查看本文。

        查看HTML格式