System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于雷达、惯性、视觉融合的陆空在线协同定位方法技术_技高网

一种基于雷达、惯性、视觉融合的陆空在线协同定位方法技术

技术编号:40998140 阅读:9 留言:0更新日期:2024-04-18 21:37
本发明专利技术属于无人系统协同定位技术领域,尤其涉及一种基于雷达、惯性、视觉融合的陆空在线协同定位方法。在相对定位的过程中,无人机和无人车均通过机载雷达、惯性单元融合实现自身定位,同时基于无人机视觉观测无人车相对位置,随后采用无人机和无人车点云融合配准的方式实现相对位姿估计。本发明专利技术能够实现无人机和无人车在卫星拒止环境下的稳定自定位和互定位,实时性高,定位稳定可靠,受环境变化影响较小。此外,不仅实现了准确实时的互定位,同时可以建立统一的融合地图,形成较为完整的点云地图,提高协同规划与导航任务效率。

【技术实现步骤摘要】

本专利技术属于无人系统协同定位,尤其涉及一种基于雷达、惯性、视觉融合的陆空在线协同定位方法


技术介绍

1、近年来,随着计算机科学技术、控制理论、仿生学以及材料科学等科研领域的技术突破,无人车和无人机在摄影、农业、物流以及救援等场景中获得了广泛的应用。

2、无人机和无人车各自具备独特的应用优势。无人机机动灵活,视野广阔,但是载重能力弱,续航较差,狭窄空间通过性差。而无人车具有与之互补的特性。空地协同作业可以更好的完成复杂场景下的搜索任务,具有良好的环境适应性和任务鲁棒性。为了保证感知和决策的一致性,充分发挥整体协同效果,需要完成空地系统间的相对定位,目前空地系统的相对定位仍依赖于机载卫星定位方法,极大的局限了空地协同系统的应用范围,因此需要一种在卫星拒止条件下的空地协同定位方法,实时估计陆空系统相对位置,提高空地协同任务的执行效能。


技术实现思路

1、针对现有技术中的不足,本专利技术提出了一种基于雷达、惯性、视觉融合的陆空在线协同定位方法,在相对定位的过程中,无人机和无人车均通过机载雷达、惯性单元融合实现自身定位,同时基于无人机视觉观测无人车相对位置,随后采用无人机和无人车点云融合配准的方式实现相对位姿估计。

2、本专利技术的技术方案具体如下:

3、一种基于雷达、惯性、视觉融合的陆空在线协同定位方法,包括以下步骤:

4、步骤s1、基于机载雷达和惯性传感器,分别对无人机和无人车进行定位;

5、步骤s2、通过无人机机载摄像头识别无人车二维码,获取相对位姿初始值;

6、步骤s3、结合相对位姿初始值,将无人机的点云数据转换到无人车的坐标系中,将无人机与无人车的点云数据基于改进的icp算法进行配准,得到两个点云数据重合度最高的变换关系,即为无人机与无人车的相对位姿。

7、优选的,所述步骤s1具体包括:

8、步骤s1-1、通过机载雷达获取点云数据,计算方式如下;

9、

10、;

11、其中,为将机载雷达时刻下获取的点云数据投影至地图中的最近邻平面后投影平面的法向量,为时刻下全局坐标系与imu坐标系之间的转换矩阵,为imu坐标系和雷达坐标系之间的转换矩阵,为机载雷达时刻下观测的点云,为机载雷达时刻下的噪声,为将机载雷达时刻下获取的点云数据投影至地图中的最近邻平面后投影平面的上的一点,为机载雷达时刻下获取的点云数据;

12、步骤s1-2、根据imu递推无人机和无人车的运动,计算方式统一描述为;

13、

14、;

15、其中,和分别为和时刻的系统状态量;为相邻两帧imu之间的时间差;表示矩阵,为运动模型,为时刻的控制输入,包括imu测量的角速度和加速度;为时刻的运动噪声项,为雷达与imu紧耦合的融合框架的流型,其维度为24,为旋转群组;

16、步骤s1-3、通过迭代卡尔曼滤波得到无人机和无人车的定位信息,计算方式如下;

17、

18、

19、其中,为状态转移矩阵,为时刻的系统状态量误差的估计值,为时刻的系统状态量误差的估计值,为时刻的定位噪声项,为时刻系统状态量的观测量,为时刻的测量噪声,为状态观测矩阵。

20、优选的,所述步骤s2中采用pnp算法获取相对位姿初始值。

21、优选的,所述将无人机与无人车的点云数据基于改进的icp算法进行配准包括:

22、(1)点集选择:配准时只选取雷达当前帧的点云数据,避免点云数据量随时间积累增加而难以计算,并采用直通滤波和体素滤波降采样处理后,得到配对点云集;

23、(2)错误点对去除:采用固定阈值法去除配对点云集中的误差点对,即删除距离大于预设阈值的点对数据,消除噪声和非刚性变形对配准的影响;

24、(3)对应点对选择:采用k-d树数据存储结构,基于k近邻算法匹配点对数据。

25、优选的,所述基于雷达、惯性、视觉融合的陆空在线协同定位方法还包括:

26、步骤s4、根据相对位姿,将无人机的点云数据更新到无人车的坐标系下,得到统一坐标系下的协同地图。

27、相比于现有技术,本专利技术的有益效果在于:

28、(1)本专利技术提出的一种基于雷达、惯性、视觉融合的陆空在线协同定位方法,采用机载雷达和惯性传感器融合实现无人机和无人车自定位的同时,基于视觉定位的方法实现空地系统粗定位,然后采用雷达特征配准的方式实现空地系统精确定位,大大提高了定位精度。

29、(2)本专利技术提出的一种基于雷达、惯性、视觉融合的陆空在线协同定位方法,可以实现无人机和无人车在卫星拒止环境下的稳定自定位和互定位,实时性高,定位稳定可靠,受环境变化影响较小。

30、(3)本专利技术提出的一种基于雷达、惯性、视觉融合的陆空在线协同定位方法,通过点云配准,不仅实现了准确实时的互定位,同时可以建立统一的融合地图,形成较为完整的点云地图,提高协同规划与导航任务效率。

本文档来自技高网...

【技术保护点】

1.一种基于雷达、惯性、视觉融合的陆空在线协同定位方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的陆空在线协同定位方法,其特征在于,所述步骤S1具体包括:

3.根据权利要求2所述的陆空在线协同定位方法,其特征在于,所述步骤S2中采用PnP算法获取相对位姿初始值。

4.根据权利要求3所述的陆空在线协同定位方法,其特征在于,所述将无人机与无人车的点云数据基于改进的ICP算法进行配准包括:

5.根据权利要求4所述的陆空在线协同定位方法,其特征在于,所述基于雷达、惯性、视觉融合的陆空在线协同定位方法还包括:

【技术特征摘要】

1.一种基于雷达、惯性、视觉融合的陆空在线协同定位方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的陆空在线协同定位方法,其特征在于,所述步骤s1具体包括:

3.根据权利要求2所述的陆空在线协同定位方法,其特征在于,所述步骤s2中采用pnp算法获取相...

【专利技术属性】
技术研发人员:屠展李道春董鑫崔阳洁邸伟承杨彬淇孔令淇宗子怡
申请(专利权)人:北京航空航天大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1