基于目标检测算法YOLOv4及几何约束的动态场景SLAM定位方法技术

技术编号:37482964 阅读:20 留言:0更新日期:2023-05-07 09:22
本发明专利技术公开基于目标检测算法YOLOv4及几何约束的动态场景SLAM定位方法,本发明专利技术首先通过视觉传感器采集图像,用YOLOv4目标检测算法识别图像序列中潜在运动物体区域,对区域外的部分进行特征点提取并用光流法计算匹配特征点,算出两帧变换矩阵后,利用对极几何的极线约束判断特征点是否为动态点,当退化运动发生极线约束失效时,利用边界约束判断特征点是否为动态特征点,最后结合目标检测结果确定动态物体区域,剔除对应区域后再依次进行跟踪、局部建图以及回环检测线程,实现面向动态场景的SLAM算法,现有视觉SLAM算法在动态环境下位姿估计不准确,且容易丢失,本发明专利技术在显著提高动态场景下视觉SLAM位姿精度的同时保证了实时性,能够在嵌入式系统上流畅运行。能够在嵌入式系统上流畅运行。能够在嵌入式系统上流畅运行。

【技术实现步骤摘要】
基于目标检测算法YOLOv4及几何约束的动态场景SLAM定位方法


[0001]本专利技术属于计算机视觉与机器人定位领域,具体涉及基于目标检测算法YOLOv4及几何约束的动态场景SLAM定位方法。

技术介绍

[0002]即时定位与地图构建(Simultaneous Localization and Mapping,SLAM)是应用于智能机器人的核心技术,可以实现机器人在完全陌生的环境下,利用自身搭载的传感器,在运动过程中实时估计自身位姿和构建周围地图的功能。视觉SLAM所用相机成本低,相比激光SLAM能获取更丰富的语义和图像纹理信息,同时随着计算机硬件的更新迭代,视觉SLAM技术已成为研究热点。
[0003] 大多数视觉SLAM算法均基于静态环境的假设,而实际应用中难以避免出现行人、车辆等运动物体。当运动物体在相机采集图像中占比较小时,可以通过随机采样一致性(Random Sample Consensus,RANSAC)的估计算法剔除外点,减小其对帧间图像匹配的影响,当运动物体占比较大,RANSAC算法可能会将动态特征点视作内点,滤除所需本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.基于目标检测算法YOLOv4及几何约束的动态场景SLAM定位方法,其特征在于,包括以下步骤:步骤S1:通过视觉传感器读取图像序列,利用YOLOv4目标检测算法识别图像中所有已分类训练的物体及其边界框位置,进入步骤S4;若未检测到物体进入步骤S2;步骤S2:若当前帧无法检测到物体,则YOLOv4目标检测算法识别图像的网络失效,进入步骤S3;步骤S3:判断上一帧是否存在动态物体;若存在,则根据光流法匹配两帧图像,将上一帧图像的动态物体边界框作相应位移,进入步骤S4;若不存在,当前帧流程结束;步骤S4:对潜在运动物体的边界框区域外的部分进行特征点提取与光流法匹配,计算两帧之间基本变换矩阵;步骤S5:P1与P2为相邻两帧图像中利用光流法匹配的一对特征点,根据变换矩阵求解P1特征点在另一帧图像上对应的极线l1;步骤S6:依据特征点P2到极线l1的距离是否超过阈值,判断特征点是否为动态特征点;步骤S7:若发生退化运动,即相机与物体发生平行的纯平移运动时,该点的像沿极线运动,此时无法根据距离判断特征点...

【专利技术属性】
技术研发人员:刘胜兰张文轩赵雪冬霍珺德
申请(专利权)人:南京航空航天大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1