一种用于室内环境的单目视觉/惯性全自主导航方法技术

技术编号:7310643 阅读:327 留言:0更新日期:2012-05-03 05:33
本发明专利技术公开了一种用于室内环境的单目视觉/惯性全自主导航方法,属于视觉导航和惯性导航领域。该方法是基于图像的局部不变特性获得特征点信息,利用摄像机运动产生的视差形成的对极几何,求解基础矩阵,利用标定的摄像机内参求解本质矩阵,根据本质矩阵获得摄像机位姿信息,最后将视觉导航信息与惯导信息结合获得相对精确、可靠的导航信息,并对空间特征点进行3D重构,获得环境信息地图,完成载体的自主导航。本发明专利技术实现了载体在陌生室内环境中不依赖合作目标的自主导航,算法可靠性高,实现成本低。

【技术实现步骤摘要】

本专利技术涉及一种导航方法,尤其涉及,属于视觉导航和惯性导航领域。
技术介绍
随着微小型无人机、小型自主机器人等技术的发展,利用先进的导航方式在室内环境中实现自主导航驾驶/飞行是其应用的先决技术条件,在此技术基础上可进行危险地形探测、反恐侦查、室内目标搜寻等任务,具有重要意义。要在陌生室内环境中实现自主导航需要考虑的主要要素有1、克服室内环境下 GPS等无线信号无法有效获取;2、除了载体本身位姿信息还需要感知外界环境信息,实现避障、路径规划等;3、微小型无人机本身负载问题。国外著名高校进行了诸多的研究,其中以美国麻省理工大学为优,其于1996开始进行小型无人机导航的早期研究,经过十多年的发展,形成了具有领先水平的室内微小型无人机导航制导与控制技术,其采用惯性、激光测距仪、视觉和声纳等传感器,实现飞行器的高精度室内自主导航技术。国内近些年也针对于飞行器视觉导航开展了大量的研究,如浙江大学、哈尔滨工业大学等都利用基于合作目标的图像信息完成飞行器着陆、飞行器对接时的位姿测定,但是目前的视觉导航主要都集中于已知环境地图信息进行追踪或者根据合作目标进行位姿检测。在陌生环境中,对于非合作目标,获得载体本身的位姿信息需要通过前后图像的匹配特征点进行,载体的运动信息包含在前后图像匹配特征点的投影关系中。由于载体运动会导致采集图像的平移、旋转、尺度、视角、错切、光照、扭曲等变化,因此必须要考虑图像匹配算法的高可靠性。常见的特征点提取算法有Harris法,但是其特征对于上述的图像变换情况点匹配的鲁棒性不够;而在普通图像匹配中采用较为广泛的尺度不变特征提取 (SIFT =Scale Invariant Feature Transform)算法,其在同类算子中具有较强的鲁棒性和较好的实时性,但是此算法过程中仍保留部分误匹配,匹配结果不够精确。
技术实现思路
本专利技术针对现有室内导航技术存在的不足,而提出一种适用于室内陌生环境下的结合单目视觉和惯性导航的组合导航方法。该方法包括如下步骤步骤1 对载体上的摄像机进行内参标定,获得空间特征点从世界坐标系到图像坐标系的投影关系,并对摄像机的畸变进行非线性优化;步骤2 利用摄像机采集序列图像,基于尺度不变特征提取算法提取摄像机采集到的序列图像前后两帧中的空间特征点信息;步骤3 根据步骤2获得的空间特征点信息进行图像初始匹配,得到初始匹配结果;依据空间特征点匹配信息量自适应调整步骤2中尺度不变特征提取算法的影响因子, 获得至少7对匹配特征点;4步骤4 根据步骤3得到的初始匹配结果,基于两帧图像之间视差产生的对极几何约束,求解基础矩阵,通过对极几何约束剔除错误匹配,保留正确匹配特征点信息;步骤5 根据步骤1标定获得的摄像机内参,结合步骤4中基础矩阵的求解结果, 求解本质矩阵;利用奇异值分解,根据本质矩阵求解摄像机位姿变换的旋转矩阵和位移向量,并对所求旋转矩阵进行解算获得视觉位姿变换信息;步骤6 利用惯性器件获得载体的惯性导航信息,将该惯性导航信息与步骤5获得的视觉位姿变换信息进行比较,保留视觉位姿变换信息中与惯性器件相近的数据作为正解,同时对摄像机坐标系与载体坐标系之间的安装误差进行修正,并将惯导与视觉导航获得的信息结合得到融合导航信息,同时获得载体本身的平移及转动速度;步骤7 根据步骤6得到的融合导航信息,结合步骤4中保留的正确匹配特征点信息,利用步骤1中获得的投影关系进行空间特征点3D重构,从而获得准确的环境信息,完成载体在环境中的自主导航。与现有技术相比,本专利技术具有如下技术效果1、采用单目视觉,简化了算法,节约了硬件实现成本。2、适用于陌生室内环境、非合作目标的情况。3、针对单目视觉获得位姿信息过程中解的非唯一性及直接获得的位移信息为非量纲问题(即位移信息为各方向的比例关系),结合惯性导航器件,可简化位姿信息解算过程中错误解的剔除,同时获得位移长度单位,且保证在当视觉导航信息无法有效获取时仍可获得有效的位姿信息,提高了导航信息的可靠性。4、利用获得的载体本身的绝对位姿信息及保留的匹配特征点信息,完成特征点的 3D重构,构造环境信息地图,可实现了路径规划、避障功能,从而实现载体安全有效地自主导航。附图说明图1为本专利技术的方法流程图。图2为图像平面、摄像机与世界坐标系之间的投影关系图。图3(a)是摄像机坐标系与载体坐标系的安装示意图;图3(b)为摄像机坐标系与载体坐标系之间的安装误差示意图。图4为立体视觉对极几何关系示意图。具体实施例方式本专利技术的方法流程如图1所示,主要包括如下步骤步骤1 对载体上的摄像机进行内参标定,获得空间特征点从世界坐标系到图像坐标系的投影关系,并对摄像机的畸变进行非线性优化;步骤2 利用摄像机采集序列图像,基于尺度不变特征提取算法提取摄像机采集到的序列图像前后两帧中的空间特征点信息;步骤3 根据步骤2获得的空间特征点信息进行图像初始匹配,得到初始匹配结果;依据空间特征点匹配信息量自适应调整步骤2中尺度不变特征提取算法的影响因子, 获得至少7对匹配特征点;步骤4 根据步骤3得到的初始匹配结果,基于两帧图像之间视差产生的对极几何约束,求解基础矩阵,通过对极几何约束剔除错误匹配,保留正确匹配特征点信息;步骤5 根据步骤1标定获得的摄像机内参,结合步骤4中基础矩阵的求解结果, 求解本质矩阵;利用奇异值分解,根据本质矩阵求解摄像机位姿变换的旋转矩阵和位移向量,并对所求旋转矩阵进行解算获得视觉位姿变换信息;步骤6 利用惯导器件获得载体的惯性信息,将该惯性信息与步骤5获得的视觉位姿变换信息进行比较,保留视觉位姿变换信息中与惯导器件相近的数据作为正解,同时对摄像机坐标系与载体坐标系之间的安装误差进行修正,并将惯导与视觉导航获得的信息结合得到融合导航信息,同时获得载体本身的平移及转动速度;步骤7 根据步骤6得到的融合导航信息,结合步骤4中保留的正确匹配特征点信息,利用步骤1中获得的投影关系进行空间特征点3D重构,从而获得准确的环境信息,完成载体在环境中的自主导航。下面对本专利技术方法涉及的主要实现步骤作详细介绍。(一 )摄像机成像模型空间特征点到图像成像主要涉及的坐标系有世界坐标系、摄像机坐标系、图像坐标系三类。图像经过畸变矫正后与空间特征点对应关系可用针孔模型近似表示,如图2所示0。X。y。z。为摄像机坐标系,原点位于摄像机光心,0。z。平行于光轴;(u,ν)表示以像素为单位的图像坐标系坐标,原点位于图像左上角^为摄像机光心与图像平面的交点,像素坐标(Utl,ν0) ; (x, y)表示以毫米为单位的图像坐标系坐标,每一个像素在χ轴和y轴方向上的物理尺寸为dx和dy。摄像机坐标系与图像坐标系的关系如下权利要求1.,其特征在于 该方法包括如下步骤步骤1 对载体上的摄像机进行内参标定,获得空间特征点从世界坐标系到图像坐标系的投影关系,并对摄像机的畸变进行非线性优化;步骤2 利用摄像机采集序列图像,基于尺度不变特征提取算法提取摄像机采集到的序列图像前后两帧中的空间特征点信息;步骤3 根据步骤2获得的空间特征点信息进行图像初始匹配,得到初始匹配结果;依据空间特征点匹配信息量自适应调整步骤2中尺度不变特征提取算法的影响因子,获得至少7对匹配特征点;步骤4 根据步骤3得到的初始匹配结果,基于本文档来自技高网
...

【技术保护点】

【技术特征摘要】

【专利技术属性】
技术研发人员:曾庆化庄曈刘建业熊智李荣冰孙永荣赵伟董良倪磊
申请(专利权)人:南京航空航天大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1
相关领域技术