计算机工程与应用››2021,第57卷››问题(9): 140-147.内政部:10.3778/j.issn.1002-8331.2001-0346

模式识别与人工智能 • 上一篇   下一篇

目标丢失判别机制的视觉跟踪算法及应用研究

牟清萍,张莹,张东波,王新杰,杨知桥  

  1. 1.湘潭大学 自动化与电子信息学院,湖南 湘潭 411105
    2机器人视觉感知与控制技术国家工程实验室,长沙 410082
  • 出版日期:2021-05-01 发布日期:2021-04-29

视觉跟踪算法研究及目标丢失判别机制的应用

牟庆平、张颖、张东波、王新杰、杨志乔  

  1. 1.湘潭大学自动化与电子信息学院,湖南湘潭411105
    2.机器人视觉感知与控制技术国家工程实验室,长沙410082
  • 在线:2021-05-01 出版:2021-04-29

摘要:

当跟踪对象被严重遮挡或者离开相机视野范围时,机器人的跟踪目标往往会丢失。为了实现准确跟踪,提出了目标丢失判别跟踪YOLO-RTM公司算法。该方法通过YOLOv3型检测视频第一帧中的目标。利用实时多域卷积神经网络(实时MDNet、RT-MDNet)跟踪算法预测目标边界框的变化。计算重叠度,根据重叠度与预设阈值的比较结果决定模型更新方式,当重叠度高于阈值时,采用RT-MD网更新外观模型,当重叠度低于阈值时,采用YOLOv3型重新搜索目标并更新外观模型。在乌龟2机器人上的实验结果表明,提出的算法能满足移动机器人跟踪的可靠性,且有效提高跟踪算法的实用性。

关键词: 视觉跟踪, 目标丢失判别机制, 实时多域卷积神经网络, 重叠度, 出镜头

摘要:

当被跟踪目标被严重遮挡或离开摄像机视野时,机器人跟踪目标往往会丢失。为了对目标进行鲁棒跟踪,提出了一种目标丢失判别跟踪算法YOLO-RTM。该方法通过YOLOv3检测视频第一帧中的目标。然后使用实时多域卷积神经网络(Real-Time MDNet,RT-MDNet)跟踪算法逐帧预测目标的变化。最后,计算了相交于联合(IoU),并根据IoU与预设阈值的比较结果确定了模型的更新模式。如果IoU高于阈值,则使用RT-MDNet更新外观模型。如果IoU低于阈值,则使用Yolov3再次搜索目标并更新外观模型。在Turtlebot2机器人上的实验结果表明,该算法满足了一般场景下移动机器人跟踪的可靠性,有效地提高了跟踪算法的实用性。

关键词: 视觉跟踪, 目标损失识别机制, 实时多域卷积神经网络, 联邦交叉口(IoU), 离开摄像机的视野