一种基于改进闭环检测算法的移动机器人视觉SLAM方法技术

技术编号:17250560 阅读:31 留言:0更新日期:2018-02-11 09:16
本发明专利技术请求保护一种基于改进闭环检测算法的移动机器人视觉SLAM方法,包括步骤:S1,使用张定友标定法对Kinect进行标定;S2,对获取的RGB图像进行ORB特征提取,并采用FLANN进行特征匹配;S3,删除误匹配;获取匹配点空间坐标,然后采用PnP算法估计出帧间位姿变换(R,t);S4,为对PnP求取的位姿变换进行无结构的迭代优化。S5,图像帧进行预处理,通过视觉词袋来对图像进行描述,并用一个改进的相似性得分匹配方法进行图像匹配,从而获取候选闭环;筛选出正确的闭环。S6,采用以集束调整为核心的图优化方法来对位姿和路标进行优化,通过不断的迭代优化获取更精确的相机位姿和路标。本发明专利技术可以在室内环境下获得更精确的位姿估计以及更好的三维重建效果。

【技术实现步骤摘要】
一种基于改进闭环检测算法的移动机器人视觉SLAM方法
本专利技术属于移动机器人导航领域,特别是一种基于视觉的同步定位与地图构建方法。
技术介绍
同时定位与地图构建(SimultaneousLocationandMapping,简称SLAM)是利用机器人自身携带的传感器获取所在环境的信息估计机器人位姿并构建环境地图,是实现机器人完全自主移动的关键技术。同时,视觉SALM还是目前VR技术的关键所在,在未来的虚拟现实产业应用前景广阔。视觉传感器可以获取和人眼感知信息相似的丰富图像信息,这些丰富的环境信息对环境地图构建提供更多细节,可以实现更好的地图构建效果。目前在视觉SLAM方面上已经取得很大进展。2007年,Klein等人提出了PTAM,它实现了跟踪与建图的并行化,并且是第一个使用非线性优化作为后端的方案;Endres在2014年提出基于深度相机的RGBD-SLAM,它整合了图像特征、闭环检测、点云等技术,实现室内场景的三维建图;2015年,RaulMur-Artal等基于PTAM架构,增加了地图初始化、闭环检测的功能,优化了关键帧的选取等,在处理速度、地图精度上都取得不错的效果。虽然过去几年,视觉SLAM取得不错的处理速度和地图精度,但是由于其对处理速度以及地图精度要求很苛刻,所以仍有很大进步空间。移动机器人长时间运行会带来的累计误差,这会造成定位与地图构建的不一致问题,而闭环检测的引入可以减小累积误差。但传统的闭环检测算法检测闭环效率不高、且准确率低。为此,引入一个改进的闭环检测算法提高闭环检测准确率和效率。同时为了减小系统误差,采用非线性优化方法对前端估计位姿进行局部优化,再对闭环信息以及前端估计信息进行全局优化。因此,提出的基于改进闭环检测算法的移动机器人视觉同步定位与地图构建方法可以在满足实时性要求下,并可以获得更加准确的位姿估计以及效果更好的三维重建。
技术实现思路
本专利技术旨在解决以上现有技术的问题。提出了一种更加准确位姿估计的基于改进闭环检测算法的移动机器人视觉SLAM方法。本专利技术的技术方案如下:一种基于改进闭环检测算法的移动机器人视觉SLAM方法,其包括以下步骤:S1、使用张定友标定法对Kinect进行标定,获取相机内参;S2、对获取的RGB图像进行ORB特征提取,并采用FLANN(快速近似最近邻)算法进行特征匹配,包括正确匹配结果和误匹配结果;S3、针对步骤S2的误匹配结果,利用RANSAC(随机采样一致性)删除误匹配;通过Kinect相机模型获取匹配点空间坐标,然后采用PnP(n点透视问题)算法估计出帧间位姿变换(R,t);S4、对步骤S3采用PnP算法求取的位姿变换进行无结构的迭代优化;S5、通过对步骤S2获取的图像帧进行预处理,通过视觉词袋来对图像进行描述,并用一个改进的相似性得分匹配方法进行图像匹配,得出的匹配更符合图像间实际相似度,从而获取候选闭环,同时,利用时间连续性和空间一致性筛选出正确的闭环;S6、采用以集束调整BA为核心的图优化方法来对位姿和路标进行优化,通过不断的迭代优化获取更精确的相机位姿和路标。进一步的,步骤S2中的ORB特征提取步骤为:首先,对RGB图像进行FAST角点提取,并利用构建图像金字塔和灰度质心法让ORB特征点具有尺度和旋转的不变性;再次,通过BRIEF对前一步提取出的特征点周围图像进行二进制描述。进一步的,所述步骤S3中通过Kinect相机模型获取匹配点空间坐标,空间坐标求解方法为:zo=z若Kinect获得图像中像素坐标(u,v)对应的深度值为z,则根据以上Kinect相机模型可以获得空间坐标(xo,yo,zo)。进一步的,步骤S4中对PnP求取的位姿变换进行优化的步骤为:首先,以相机位姿为优化变量,通过最小化重投影误差来构建优化问题;然后,在原来的PnP函数中把PnP值作为初值,再调用g2o进行优化。进一步的,所述步骤S5候选闭环的检测步骤为:首先,对获取图像进行预处理,利用以下相似性计算函数获取图像相似性得分,当得分大于设定阈值,即舍去当前帧;如若不是,当前帧则代表一个新的场景,用于参与闭环检测;其中,Vl表示上一帧图像的加权向量,Vc表示当前帧的加权向量,H值表示图像相似度。接下来,采用分层K均值聚类算法对图像进行描述;再采用以下改进的单节点得分函数进行图像相似性得分匹配;使用自上而下相似性增量的方法可以避免重复累计相似性,定义第l层相似性得分增量为:定义匹配核为:其中,ηl表示第l层的匹配强度系数。进一步的,所述改进的相似性得分的函数定义为:基于上式提出的新的单节点相似性得分函数,则第l层的相似性得分为:其中,表示图像X在树的第l层的第i个节点上的得分,表示图像Y在树的第l层的第i个节点上的得分。进一步的,采用以集束调整BA为核心的图优化方法来对位姿和路标进行优化具体包括:首先,、构建位姿和路标整体的代价函数即目标函数为:e=z-h(ξ,p)其中,ξ是相机位姿即外参(R,t)对应的李代数,p是路标的三维坐标点,z是Kinect观测的像素坐标数据,e是观测误差,zij表示在位姿ξi处观察路标pj产生的像素坐标数据;然后对这个最小二乘法进行求解,把自变量定义成所有待优化的变量:x=[ξ1,...,ξm,p1,...,pn]根据非线性优化得思想,不断地寻找下降方向△x来找到代价函数的最优解;当给自变量一个增量,目标函数变为:其中,Fij、Eij分别表示当前状态下相机位姿的偏导数和对路标点位置的偏导数;最终求解如下增量方程:H△x=g,g等价为一个常数。其中,H=JTJ+λIJ=[FE],矩阵E和F表示整体目标函数对整体变量的导数。本专利技术的优点及有益效果如下:本专利技术提供了一种基于改进闭环检测算法的移动机器人视觉SLAM方法,使用ORB特征提高了特征提取与匹配的速度,改善了系统实时性;而且通过改进的闭环检测算法提高闭环检测准确率,避免了感知歧义问题,减小了系统累积误差;并且分别通过对位姿的局部优化和对整个系统数据的全局优化,减少了系统噪声等带来的误差,因此获得更精确的位姿估计以及更好的三维重建效果。附图说明图1是本专利技术的基于改进闭环检测算法的移动机器人视觉SLAM方法流程图。具体实施方式下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本专利技术的一部分实施例。本专利技术解决上述技术问题的技术方案是:如图1所示,本专利技术提供了一种基于改进闭环检测算法的移动机器人视觉SLAM方法,其特征在于,包括以下步骤:S1,使用张定友标定法对Kinect进行标定;校正相机畸变并获取相机内参;张定友标定法就是仅需使用一个打印出来的棋盘格就可以获得相机内参的标定法。S2,使用opencv对RGB图像进行ORB特征提取,获取的ORB特征鲁棒性好、耗时短,非常适用实时SLAM;快速近似最近邻(FLANN)算法适合匹配点数量极多的情况,可以有效地完成特征匹配。S3,针对误匹配情况,利用随机采样一致性(RANSAC)删除误匹配;通过Kinect相机模型获取匹配点空间坐标,然后采用PnP算法估计出帧间位姿变换(R,t);空间坐标求解方法为:zo=z若Kinect获得图像中像素坐标(u,v)对应的深度值为z,则根据以上Kinect相机本文档来自技高网
...
一种基于改进闭环检测算法的移动机器人视觉SLAM方法

【技术保护点】
一种基于改进闭环检测算法的移动机器人视觉SLAM方法,其特征在于,包括以下步骤:S1、使用张定友标定法对Kinect进行标定,获取相机内参;S2、对获取的RGB图像进行ORB特征提取,并采用FLANN快速近似最近邻算法进行特征匹配,包括正确匹配结果和误匹配结果;S3、针对步骤S2的误匹配结果,利用RANSAC随机采样一致性删除误匹配;通过Kinect相机模型获取匹配点空间坐标,然后采用n点透视问题算法PnP估计出帧间位姿变换(R,t);S4、对步骤S3采用PnP算法求取的位姿变换进行无结构的迭代优化;S5、通过对步骤S2获取的图像帧进行预处理,通过视觉词袋来对图像进行描述,并用一个改进的相似性得分匹配方法进行图像匹配,得出的匹配更符合图像间实际相似度,从而获取候选闭环,同时,利用时间连续性和空间一致性筛选出正确的闭环;S6、采用以集束调整BA为核心的图优化方法来对位姿和路标进行优化,通过不断的迭代优化获取更精确的相机位姿和路标。

【技术特征摘要】
1.一种基于改进闭环检测算法的移动机器人视觉SLAM方法,其特征在于,包括以下步骤:S1、使用张定友标定法对Kinect进行标定,获取相机内参;S2、对获取的RGB图像进行ORB特征提取,并采用FLANN快速近似最近邻算法进行特征匹配,包括正确匹配结果和误匹配结果;S3、针对步骤S2的误匹配结果,利用RANSAC随机采样一致性删除误匹配;通过Kinect相机模型获取匹配点空间坐标,然后采用n点透视问题算法PnP估计出帧间位姿变换(R,t);S4、对步骤S3采用PnP算法求取的位姿变换进行无结构的迭代优化;S5、通过对步骤S2获取的图像帧进行预处理,通过视觉词袋来对图像进行描述,并用一个改进的相似性得分匹配方法进行图像匹配,得出的匹配更符合图像间实际相似度,从而获取候选闭环,同时,利用时间连续性和空间一致性筛选出正确的闭环;S6、采用以集束调整BA为核心的图优化方法来对位姿和路标进行优化,通过不断的迭代优化获取更精确的相机位姿和路标。2.根据权利要求1所述的移动机器人视觉同步定位与地图构建方法,其特征在于,步骤S2中的ORB特征提取步骤为:首先,对RGB图像进行FAST角点提取,并利用构建图像金字塔和灰度质心法让ORB特征点具有尺度和旋转的不变性;再次,通过BRIEF对前一步提取出的特征点周围图像进行二进制描述。3.根据权利要求2所述的移动机器人视觉同步定位与地图构建方法,其特征在于,所述步骤S3中通过Kinect相机模型获取匹配点空间坐标,空间坐标求解方法为:zo=z若Kinect获得图像中像素坐标(u,v)对应的深度值为z,则根据以上Kinect相机模型可以获得空间坐标(xo,yo,zo)。4.根据权利要求3所述的一种基于改进闭环检测算法的移动机器人视觉SLAM方法,其特征在于,步骤S4中对PnP求取的位姿变换进行优化的步骤为:首先,以相机位姿为优化变量,通过最小化重投影误差来构建优化问题;然后,在原来的PnP函数中把PnP值作为初值,再调用g2o进行优化。5.根据权利要求4所述的一种基于改进闭环检测算法的移动机器人视觉SLAM方法,其特征在于,所述步骤S5候选闭环的检测步骤为:首先,对获取图像进行预处理,利用以下相似性计算函数获取图像相似性得分,当得分大于设定阈值,即舍去当前帧;如若不是,当前帧则代表一个新的场景,用于参与闭环检测;其中,Vl表示上一帧图像的加权向量,Vc表示当前帧的加权向量,H值表示图像相似度;接下来,采用分层K均值聚类算法对图像进行描述;再采用以下改进的单节点得分函数进行图像相似性得分匹配;使用自上而下相似性增量的方法可以避免重复累计相似性,定义第l层相似性得分增量为:

【专利技术属性】
技术研发人员:胡章芳鲍合章罗元孙林
申请(专利权)人:重庆邮电大学
类型:发明
国别省市:重庆,50

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1