System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于点线特征快速融合的视觉惯性组合定位系统技术方案_技高网

一种基于点线特征快速融合的视觉惯性组合定位系统技术方案

技术编号:40874675 阅读:3 留言:0更新日期:2024-04-08 16:43
本发明专利技术属于视觉惯性组合定位导航领域,具体涉及一种基于点线特征快速融合的视觉惯性组合定位系统。包括:步骤1:将单目相机与IMU固定安装在移动机器人上,通过相机获取机器人所处环境的RGB彩色图像,通过IMU获取机器人的粗略位姿信息;步骤2:对RGB彩色图像提取Shi‑Tomasi特征点,同时提取EDLines线特征;步骤3:对粗略位姿信息进行预积分处理;步骤4:将惯性信息和视觉信息联合初始化,对移动机器人的姿态、速度信息进行初步估计,并输入到系统后端;步骤5:图像帧中选取关键帧进行集中处理;步骤6:构建误差模型;步骤7:建立滑动窗口模型进行后端优化;步骤8:针对相机与IMU不断输入的数据重复上述步骤1~步骤7,实现移动机器人的实时定位。

【技术实现步骤摘要】

本专利技术属于视觉惯性组合定位导航领域,具体涉及一种基于点线特征快速融合的视觉惯性组合定位系统


技术介绍

1、随着机器人技术的快速发展,移动机器人在工业中得到了广泛应用。传统的定位方法中,主要采用卫星导航技术和惯性导航技术等进行定位,但是gps只能用于室外在地下空间以及室内空间等位置容易丢失信号,无法持续为机器人提供位姿信息。同时高精度惯性导航虽然不受环境影响而且可以输出较为可靠的位姿信息,但是其价格极其高昂,基本上只有在军事设备上才会使用,而低成本的惯导在使用过程中会随时间推移产生较大累计误差,无法进行精确定位。这些因素给自主定位的移动机器人的商业化、进入日常生活带来了不小的挑战和困难。

2、近几年来,以视觉传感器为中心的视觉slam技术得到了明显的转变和突破。多种基于单目、双目和深度相机的理论方法被提出,其中,单目相机相比于激光雷达虽然精度较差、噪声大,但是成本低,能够采集彩色图像信息,因而更加适合在普通的办公、家庭等室内场景使用。但是,当机器人移动速度较快以及旋转角度较大时,会导致视觉传感器获取的图像比较模糊,从而导致定位精度较差。惯性传感器利用加速度计以及陀螺仪获得自身加速度与角速度,在短时间内有较高的精度,而且不受外界环境的影响,可以弥补视觉传感器因外界环境因素以及载体快速运动导致定位精度较差的问题。同时当载体进行长时间运动时惯性导航会在递推过程中不断地累计误差从而导致定位精度较差,而视觉传感器不会因为时间的累计而产生误差,因此可以通过视觉传感器对惯性器件的累计误差进行补偿,及时修正惯性器件的偏移量。视觉惯性融合算法能够弥补各自传感器的不足,从而体高系统的鲁棒性,可以提供精确的定位。

3、当载体其处于低纹理环境下时,定位系统无法提取足够的特征点,仍然会导致系统定位精度较差。而在这些场景中往往存在较多的直线特征,通过提取空间直线,然后进行点线特征信息融合,便可以在低纹理环境下获得较好的鲁棒性。但是在增加线特征后会增加系统后端的计算量,导致定位系统实时性较差。同时,由于线特征的端点会在相机运动时发生改变,所以基于线特征端点的线特征重投影误差模型会在相机转弯或剧烈运动时失效,所以导致系统定位精度较差。


技术实现思路

1、针对以上问题,本专利技术为解决现有算法在转弯或剧烈运动时下鲁棒性差以及实时性较差的问题,提出了一种基于点线特征快速融合的视觉惯性组合定位系统。

2、为了实现上述目的,本专利技术所采用的技术方案如下:

3、一种基于点线特征快速融合的视觉惯性组合定位系统,包括:

4、步骤1:将单目相机与imu固定安装在移动机器人上,通过相机获取机器人所处环境的视觉信息,即rgb彩色图像,通过imu获取机器人的惯性信息,即粗略位姿信息;

5、步骤2:对步骤1获取的rgb彩色图像,提取shi-tomasi特征点,同时使用lk光流法对特征点进行追踪匹配,然后从rgb彩色图像中提取edlines线特征,并使用lbd描述子进行匹配;

6、步骤3:对步骤1获得的粗略位姿信息进行预积分处理;

7、步骤4:将惯性信息和视觉信息联合初始化,对移动机器人的姿态、速度信息进行初步估计,并输入到系统后端;

8、步骤5:从步骤4输入到系统后端的图像帧中选取关键帧进行处理;

9、步骤6:基于惯性信息建立惯性测量误差,将相邻两帧之间imu输出的数据转化为观测值,将步骤3的imu预积分的值作为真实值,将二者之差作为测量误差,进而构建误差模型;

10、步骤7:建立滑动窗口模型进行后端优化;

11、步骤8:针对相机与imu不断输入的数据重复上述步骤1~步骤7,计算所有相邻两帧图像之间的位姿变换矩阵,实现移动机器人的实时定位。

12、优选的,所述步骤5选取关键帧的应满足如下条件:

13、1.最新的关键帧与上一个的关键帧之间有15个连续的图像帧,如果某一个关键帧中的跟踪点小于设定的最小值,将直接插入新的关键帧;

14、2.当前帧的点、线跟踪数目必须分别达到20个;

15、3.若最新的图像帧与当前关键帧的帧间位姿超过预先设定的阈值时,将该关键帧剔除,从最新图像帧中引入新的关键帧。

16、优选的,所述步骤7具体为:

17、步骤7.1:当前端将关键帧信息输入到后端时,建立滑动窗口模型,并保持滑动窗口内的关键帧数量恒定,当有新的关键帧输入到滑动窗口中时,将最早的关键帧进行边缘化;

18、步骤7.2:当关键帧输入到滑动窗口后,计算滑动窗口内所有关键帧的图像信息熵的平均值h,并设定阈值η;

19、步骤7.3:当h≥η时,表示此时载体处于纹理丰富的环境,此时仅使用点特征便可以进行精确定位,联立先验误差、imu测量误差与点特征重投影误差建立误差方程,然后使用列文伯格-马夸尔特算法进行迭代优化,获得载体精准位姿;

20、当h<η时表示此时载体处于纹理缺失的环境,需增加线特征重投影进行精确定位,联立先验误差、imu测量误差、点特征重投影误差与线特征建立误差方程,然后使用列文伯格-马夸尔特算法进行迭代优化,获得载体精准位姿。

21、与现有技术相比,本专利技术的有益效果是:

22、1.本专利技术在建立线特征重投影误差时,将两条线段斜率之差作为角度误差增加到传统的线特征重投影误差模型中,提出了一种基于角度误差的线特征重投影误差模型,有效地提高了视觉导航系统在快速运动以及转弯时的定位精度。

23、2.本专利技术在建立滑动窗口模型中,提出了一种基于图像信息熵的点线融合模式。首先通过计算滑动窗口内所有关键帧图像信息熵的平均值判断当前导航定位系统是否处于低纹理环境。当判断当前未处于低纹理环境时,则认为当前定位不需要增加线特征,然后将线特征重投影误差设置为零从而减少后端优化的计算量,有效解决了增加线特征重投影误差后,系统后端计算量较大的问题,提高了系统的实时性。

本文档来自技高网...

【技术保护点】

1.一种基于点线特征快速融合的视觉惯性组合定位系统,其特征在于:包括:

2.根据权利要求1所述的一种基于点线特征快速融合的视觉惯性组合定位系统,其特征在于:所述步骤5选取关键帧的应满足如下条件:

3.根据权利要求2所述的一种基于点线特征快速融合的视觉惯性组合定位系统,其特征在于:所述步骤7具体为:

【技术特征摘要】

1.一种基于点线特征快速融合的视觉惯性组合定位系统,其特征在于:包括:

2.根据权利要求1所述的一种基于点线特征快速融合的视觉惯性组合定位系统,其特征...

【专利技术属性】
技术研发人员:赵军阳张志利徐泽乾周召发闫兴旭
申请(专利权)人:中国人民解放军火箭军工程大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1