The invention relates to computer vision and image processing technology, and proposes an autonomous positioning method for UAV. The autonomous positioning method for UAV based on visual SLAM consists of feature extraction and Matching Solving motion part, IMU fusion part of image and inertial measurement unit and estimating 3D point depth part. In the motion solving part, the feature point method and direct positioning method are adopted. The method combines the strategy of extracting point features and line features after selecting the key frame, and then minimizing the error to complete the calculation of relative pose; in the image and inertial measurement unit IMU fusion part, the error is minimized to fuse it; the last step is to estimate the depth of 3D points, and triangulate the point based on matching the selected feature points. The 3D position is the depth of the point. The invention is mainly applied to computer vision and image processing occasions.
【技术实现步骤摘要】
基于视觉SLAM的无人机自主定位方法
本专利技术涉及计算机视觉、图像处理等领域,解决了在未知环境中无GPS信号时的无人机定位问题。
技术介绍
随着社会需求的提高,无人机有越来越多的功能需求及应用场景,要求需要拥有更强的感知、决策以及执行能力,对单体无人机的结构设计、功能设计等工作提出了很高的要求,实现难度也大大增加。无人机具有极高的灵活性和自主性,能够在没有人类干预或者较少干预的情况下执行任务,帮助人类完成具有危险性或者重复性的劳动。由于无人机所处环境的多样性和复杂性,必须具备确定自身位置的能力才能够感知周围环境,这是无人机实现复杂功能与执行多种任务的前提和关键。因此明确无人机在环境中的相对位置显得至关重要。无人机的自主定位是保证其安全运行、轨迹规划以及目标跟踪等任务的前提和关键所在。无人机的定位目前主要分为两种方式,一种是基于外部定位系统进行运动体定位,例如:GPS、北斗等全球卫星导航系统或者室内定位系统,然而GPS的精度较低,室内定位系统也需要预先布置好外部采集器,具有一定的局限性;另一种是基于无人机自身携带的传感器设备对周围环境进行感知,通过对采集到的传感器数据进行处理和环境建模,进而解决无人机自身的定位问题,这种方式目前被称为自主定位,该方法可以在GPS信号缺失、或者未知环境中解决无人机的定位问题。无人机的自主定位通常会采用激光雷达、视觉传感器、惯性测量单元等设备去获取周围环境信息和自身状态,再利用同步定位与建图方法(SimultaneousLocalizationAndMapping,SLAM)实现环境建模与定位。无人机的自主定位是目前学术界研究 ...
【技术保护点】
1.一种基于视觉SLAM的无人机自主定位方法,其特征是,由特征提取及匹配求解运动部分、图像和惯性测量单元imu融合部分以及估计3D点深度部分组成;在运动求解部分,采取将特征点法和直接法相结合的策略,选取出关键帧之后提取点特征和线特征,然后最小化误差来完成相对位姿的计算;在图像和惯性测量单元imu融合部分,通过对特征匹配后的光度误差最小化和imu预积分后得到的先验平移量和旋转量与现状态下的平移量和旋转量的误差最小化来对其进行融合;最后一步为估计3D点深度部分,在选取的特征点进行匹配的基础上,进行三角化的方法来求解该点的3D位置,即得到该点的深度值。
【技术特征摘要】
1.一种基于视觉SLAM的无人机自主定位方法,其特征是,由特征提取及匹配求解运动部分、图像和惯性测量单元imu融合部分以及估计3D点深度部分组成;在运动求解部分,采取将特征点法和直接法相结合的策略,选取出关键帧之后提取点特征和线特征,然后最小化误差来完成相对位姿的计算;在图像和惯性测量单元imu融合部分,通过对特征匹配后的光度误差最小化和imu预积分后得到的先验平移量和旋转量与现状态下的平移量和旋转量的误差最小化来对其进行融合;最后一步为估计3D点深度部分,在选取的特征点进行匹配的基础上,进行三角化的方法来求解该点的3D位置,即得到该点的深度值。2.如权利要求1所述的基于视觉SLAM的无人机自主定位方法,其特征是,关键帧的选取策略为当新的图像帧上的特征块数量小于一定阈值时,则该帧作为新的关键帧。3.如权利要求1所述的基于视觉SLAM的无人机自主定位方法,其特征是,运动求解部分、图像和惯性测量单元imu融合部分进一步具体地,提取关键帧,然后在关键帧上提取点特征和线特征,利用直接法中的最小化光度误差的方法来计算位姿:首先计算相同空间点在相邻图像帧投影的点特征和线特征的光度差值,然后计算点特征和线特征块在光度值上面的差异,此时将该差异和imu进行融合,对imu数据进行预积分处理,计算出此时的误差,基于最小化光度误差和最小化imu误差进行位姿的求解,具体计算如下:相机的相对位置姿态Tk,k-1,则:其中,IP为提取的两个相邻的点特征之间的光度差,Il为提取的两个相邻线特征之间的光度误差,P为像素点,P′kk-1为相对转换先验值,R′Tkk-1...
【专利技术属性】
技术研发人员:宗群,刘彤,窦立谦,韩天瑞,霍新友,
申请(专利权)人:天津大学,
类型:发明
国别省市:天津,12
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。