当前位置: 首页 > 专利查询>天津大学专利>正文

基于视觉与IMU实时信息融合的SLAM算法制造技术

技术编号:37127544 阅读:27 留言:0更新日期:2023-04-06 21:26
本发明专利技术公开了一种基于视觉与IMU实时信息融合的SLAM算法,主要包括:在ORB

【技术实现步骤摘要】
基于视觉与IMU实时信息融合的SLAM算法


[0001]本专利技术涉及一种基于权值自适应均值滤波算法的视觉IMU实时信息融合算法,属于多传感器融合


技术介绍

[0002]SLAM技术是指机器人通过自身搭载的传感器元件获取观测信息,在构建地图的同时估计出机器人的位姿变化及运动轨迹。基于视觉系统的SLAM算法在纹理细节丰富的环境中能够更迅速地识别周围环境中的纹理信息,从而能够适应更加复杂多变的动态环境。不过,随着机器人所工作的环境开始变得更加复杂,在一些情形下,仅仅采用单一视觉传感器的SLAM算法展现出了相当的局限性。首先,当长时间在动态室内环境中执行建图任务时,机器人在快速运动、视点变化引起的图像几何变化、光照变化剧烈甚至是无光的环境中表现相当糟糕。其次,在硬件方面,传感器的长时间旋转扫描会导致机器人内部机械结构产生一定程度的损坏,从而使机器人在运动过程中的建图产生一定的误差。最后,在计算量方面,随着机器人运动区域面积的增加,视觉类算法的计算量也会随之增加。
[0003]目前,多传感器融合技术可以有效改进单一传感器存在的上述不足本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种基于视觉与IMU实时信息融合的SLAM算法,其特征在于,包括下述步骤:S1、在ORB

SLAM2的基础上构建基于视觉与IMU实时信息融合的SLAM系统;S2、设计一种基于三轴IMU数据的权值自适应均值滤波算法;S3、利用S2处理的IMU数据,与视觉里程计数据融合,实现位姿估计;S4、优化地图点和进行检测。2.根据权利要求1所述的基于视觉与IMU实时信息融合的SLAM算法,其特征在于,S1的过程是:构建基于视觉与IMU实时信息融合的SLAM系统,该SLAM系统依赖于ORB

SLAM2;在跟踪线程中,输入由视频帧的单一输入改变为视频帧和IMU数据的组合双输入;在局部建图这一线程中,添加了IMU的相关操作,在完成对视频帧的操作后,需要对IMU进行初始化,当IMU初始化完成之后再对冗余的关键帧进行删除操作,最后对IMU数据的规模进行调整,即可传入到闭环线程。3.根据权利要求1所述的基于视觉与IMU实时信息融合的SLAM算法,其特征在于,所述S2包括以下子步骤:S21:测试数据集采用EuRoC数据集,选取固定滤波窗口W,以每一个数据点为中心,去除窗口内的极大值、极小值数据点;S22:剩余数据的集合记为H,计算H内所有数据的均值和集合H内各数据与其均值的差的绝对值D
k
,与选定阈值T相比较;S23:利用阈值优化原则,如果集合H内的某一点的D
k
大于阈值T,则权值由D
k
决定;如果集合H内的某一点的D
k
小于或等于阈值T,则权值由T决定;S24:计算得到集合H内各数据点所对应的权值,并做归一化处理;S25:计算得到该中心点的带有权值的均值。4.根据权利要求1所述的基于视觉与IMU实时信息融合的SLAM算法,其特征在于,所述步骤S21中:以含噪声的数据集中的每一个数据点为中心选取一个固定大小的滤波窗口W,将窗口内的极大值、极小值数据点去除,剩余数据的集合记为H,如下式:H[f(i)]={f(i)|f(i)≠Max(W[f(i)])或f(i)≠Min(W[f(i)])}
ꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(1)式(1)中,Max(W[f(i)])表示窗口内的极大值点,Min(W[f(i)])表示窗口内的极小值点;H[f(i)]表示去除极大值点和极小值点的集合;所述步骤S22中:计算H内的所有数据的均值Mean(H[f(i)]),D
k
表示集合H内各数据与其...

【专利技术属性】
技术研发人员:董娜刘帅麦晓明秦明辉
申请(专利权)人:天津大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1