System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种机器人动态障碍物避障方法技术_技高网

一种机器人动态障碍物避障方法技术

技术编号:40871569 阅读:4 留言:0更新日期:2024-04-08 16:38
本发明专利技术公开一种机器人动态障碍物避障方法,采用相机和激光雷达的数据获得动态障碍物在不同帧下的坐标信息,在通过坐标信息进行拟合,现实对动态障碍物的检测和跟踪,同时结合深度卷积神经网络进行机器人的运动状态预测,可以实现机器人的运动状态的预测,从而进行避障和导航控制,提高机器人的自主决策能力和运动规划能力。

【技术实现步骤摘要】

本专利技术涉及机器人路径规划,尤其涉及一种机器人动态障碍物避障方法


技术介绍

1、目前机器人的避障策略主要包括全局路径规划和局部路径规划。所述全局路径规划需要掌握所有的环境信息建立场景地图,再根据场景地图的所有信息进行路径规划,常见的全局规划算法如a*算法、dijkstra算法等,全局路径规划的实时性差,难以处理复杂的路径信息,大多适用于无障碍或稀疏障碍等简单环境。局部路径规划指在全部或部分未知的场景下,利用范围内的采集的局部环境信息,然后确定出所在场景地图的位置及其局部的障碍物分布情况,从而实现局部路径规划。局部路径规划更侧重机器人面对未知场景的适应能力和算法的避障能力。目前局部路径规划算法主要基于dqn(deep q-network)以及drqn(deep recurrent q-network)算法。根据已有的实验成果,相较基于dqn的局部路径规划算法,基于drqn的局部路径规划算法具有更好的决策和路径选择能力,但其需要消耗更多的存储空间和计算资源,且收敛时间更长。另外基于dqn的局部路径规划算法和基于drqn的局部路径规划算法无法识别动态障碍物,无法对场景中的动态障碍物进行规避,在复杂场景下避障的能力略显不足。


技术实现思路

1、为此,需要提供一种机器人动态障碍物避障方法,解决了机器人在复杂场景下的感知以及动态障碍物的避障问题。

2、为实现上述目的,本专利技术提供了一种机器人动态障碍物避障方法,其包括以下步骤:

3、获取相机识别的每一帧的box框信息,根据相机内参计算box框信息中动态障碍物相对相机位置的偏航角yaw和俯仰角pitch;

4、获取激光雷达的点云数据,根据动态障碍物相对相机位置的偏航角yaw获取动态障碍物的坐标信息,将每一帧的box框信息和对应的动态障碍物的坐标信息一一对应保存;

5、对相邻两帧的box框信息进行动态障碍物匹配以及跟踪,将匹配到的动态障碍物进行编号,保存相同编号的动态障碍物在不同帧下的坐标信息;

6、对相同编号的动态障碍物的坐标信息进行拟合,获得动态障碍物在下一帧位姿;

7、将所述动态障碍物在下一帧位姿作为第一输入特征,将机器人本身的状态信息作为第二输入特征,输入深度卷积神经网络,获取机器人的运动状态。

8、进一步地,所述获取激光雷达的点云数据,根据动态障碍物相对相机位置的偏航角yaw获取动态障碍物的坐标信息,将每一帧的box框信息和对应的动态障碍物的坐标信息一一对应保存;包括以下步骤:

9、获取激光雷达的点云数据,获取到每个激光点在机器人坐标系下的坐标信息;

10、根据box框信息中动态障碍物相对相机位置的偏航角yaw,获取到动态障碍物在机激光雷达的点云数据中的位置;

11、读取动态障碍物在机器人坐标系下的坐标信息;将每一帧的box框信息和对应的动态障碍物的坐标信息一一对应保存。

12、进一步地,所述对相同编号的动态障碍物的坐标信息进行拟合,获得动态障碍物在下一帧位姿;包括以下步骤:

13、对相同编号的动态障碍物的最近三帧的坐标信息使用三次函数进行曲线拟合,获得所述动态障碍物的预测轨迹;

14、基于动态障碍物的预测轨迹,预测动态障碍物在下一帧位姿,获得动态障碍物在下一帧位姿。

15、进一步地,所述保存相同编号的动态障碍物在不同帧下的坐标信息,还包括判断已保存相同编号的动态障碍物的坐标信息的帧数是否大于3,若是保存最近帧下的坐标信息,剔除最早帧下的坐标信息。

16、进一步地,所述深度卷积神经网络为yolov7网络或基于yolov7的改进网络。

17、进一步地,所述基于yolov7的改进网络为将yolov7网络中的激活函数替换为leakyrelu函数,并将x小于0的阈值设为0.1。

18、进一步地,所述基于yolov7的改进网络为将yolov7网络中的主干网络替换为mobilenetv3-small网络。

19、进一步地,所述基于yolov7的改进网络为在yolov7网络中的head部分的sppcspc模块后加入cbam注意力模块,所述cbam注意力模块中的空间注意力为7x7的卷积。

20、进一步地,所述基于yolov7的改进网络为将yolov7网络中的head部分的elan-h模块替换为elan模块。

21、进一步地,所述基于yolov7的改进网络为将yolov7网络中的损失函数中的ciou替换为focal_eiou。

22、区别于现有技术,上述技术方案采用相机和激光雷达的数据获得动态障碍物在不同帧下的坐标信息,在通过坐标信息进行拟合,现实对动态障碍物的检测和跟踪,同时结合深度卷积神经网络进行机器人的运动状态预测,可以实现机器人的运动状态的预测,从而进行避障和导航控制,提高机器人的自主决策能力和运动规划能力。

本文档来自技高网...

【技术保护点】

1.一种机器人动态障碍物避障方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的机器人动态障碍物避障方法,其特征在于,所述获取激光雷达的点云数据,根据动态障碍物相对相机位置的偏航角Yaw获取动态障碍物的坐标信息,将每一帧的BOX框信息和对应的动态障碍物的坐标信息一一对应保存;包括以下步骤:

3.根据权利要求1所述的机器人动态障碍物避障方法,其特征在于,所述对相同编号的动态障碍物的坐标信息进行拟合,获得动态障碍物在下一帧位姿;包括以下步骤:

4.根据权利要求1所述的机器人动态障碍物避障方法,其特征在于,所述保存相同编号的动态障碍物在不同帧下的坐标信息,还包括判断已保存相同编号的动态障碍物的坐标信息的帧数是否大于3,若是保存最近帧下的坐标信息,剔除最早帧下的坐标信息。

5.根据权利要求1所述的机器人动态障碍物避障方法,其特征在于,所述深度卷积神经网络为YOLOv7网络或基于YOLOv7的改进网络。

6.根据权利要求5所述的机器人动态障碍物避障方法,其特征在于,所述基于YOLOv7的改进网络为将YOLOv7网络中的激活函数替换为LeakyReLU函数,并将x小于0的阈值设为0.1。

7.根据权利要求5所述的机器人动态障碍物避障方法,其特征在于,所述基于YOLOv7的改进网络为将YOLOv7网络中的主干网络替换为MobileNetV3-small网络。

8.根据权利要求5所述的机器人动态障碍物避障方法,其特征在于,所述基于YOLOv7的改进网络为在YOLOv7网络中的head部分的SPPCSPC模块后加入CBAM注意力模块,所述CBAM注意力模块中的空间注意力为7x7的卷积。

9.根据权利要求5所述的机器人动态障碍物避障方法,其特征在于,所述基于YOLOv7的改进网络为将YOLOv7网络中的head部分的ELAN-H模块替换为ELAN模块。

10.根据权利要求5所述的机器人动态障碍物避障方法,其特征在于,所述基于YOLOv7的改进网络为将YOLOv7网络中的损失函数中的CIOU替换为Focal_EIoU。

...

【技术特征摘要】

1.一种机器人动态障碍物避障方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的机器人动态障碍物避障方法,其特征在于,所述获取激光雷达的点云数据,根据动态障碍物相对相机位置的偏航角yaw获取动态障碍物的坐标信息,将每一帧的box框信息和对应的动态障碍物的坐标信息一一对应保存;包括以下步骤:

3.根据权利要求1所述的机器人动态障碍物避障方法,其特征在于,所述对相同编号的动态障碍物的坐标信息进行拟合,获得动态障碍物在下一帧位姿;包括以下步骤:

4.根据权利要求1所述的机器人动态障碍物避障方法,其特征在于,所述保存相同编号的动态障碍物在不同帧下的坐标信息,还包括判断已保存相同编号的动态障碍物的坐标信息的帧数是否大于3,若是保存最近帧下的坐标信息,剔除最早帧下的坐标信息。

5.根据权利要求1所述的机器人动态障碍物避障方法,其特征在于,所述深度卷积神经网络为yolov7网络或基于yolov7的改进网络。

6.根据权利要求5所述的机器人动态障碍物避障方法...

【专利技术属性】
技术研发人员:林毅陈文强陈华聪田健戴俊源
申请(专利权)人:福建汉特云智能科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1