一种基于无人机多传感器信息融合技术的着舰引导方法技术

技术编号:21768543 阅读:28 留言:0更新日期:2019-08-03 20:44
本发明专利技术公开了一种基于无人机多传感器信息融合技术的着舰引导方法,主要包括步骤S100:基于最小二乘法进行信息同步:步骤S200:基于贝叶斯估计的着舰引导传感器融合;步骤S300:基于卡尔曼滤波的IMU/机载视觉姿态融合;采集IMU实验数据并经过四元数解算得到姿态角数据,同时对图像采集的图片进行处理得到相机的内、外参数;采用卡尔曼滤波融合姿态角数据和外参数。本发明专利技术将多传感器测量信息融合并进行滤波估计,实现精确着舰引导。相比单个传感器引导而言,对于飞机的实际位置测量更准确,本发明专利技术提高了引导系统的兼容性和容错率,充分发挥了多传感器融合的优势,在最大程度上保证了着舰的准确性以及稳定性。

A landing guidance method based on UAV multi-sensor information fusion technology

【技术实现步骤摘要】
一种基于无人机多传感器信息融合技术的着舰引导方法
本专利技术属于无人机导航的
,具体涉及一种基于无人机多传感器信息融合技术的着舰引导方法。
技术介绍
要成功完成自动着舰任务需要精确的引导信息,规划一个平滑的着舰轨迹,才能顺利的降落在甲板着舰点上。此外,有限的舰船甲板空间也对引导的精确度提出了更高的要求。多传感器信息融合方法为精确引导提供了一种可行方法;它可以利用多传感器的辅助属性进行估计,以获得更准确的估计。并且在此基础上,为了保证导引系统的兼容性以及容错率的提高,在GPS、视觉引导系统、激光雷达等传感器的支持下,对可能影响引导方案变化的因素进行了全面的分析,并针对性地制定了相应的解决措施,在最大程度上保证了着舰的准确性以及稳定性。着舰引导系统采用多信息源冗余设计,充分考虑到复杂的海洋环境及其他应用环境,相互之间互为余度,互相补充,才能够保证在各种干扰下具有较高的可靠性和导引精度。
技术实现思路
本专利技术的目的在于提供一种基于无人机多传感器信息融合技术的着舰引导方法,使飞机的实际位置测量更准确,可提高引导系统的兼容性和容错率,为实现无人机精确定点着舰提供了可能。本专利技术主要通过以下技术方案实现:一种基于无人机多传感器信息融合技术的着舰引导方法,主要包括以下步骤:步骤S100:基于最小二乘法进行信息同步:步骤S200:基于贝叶斯估计的着舰引导传感器融合;在步骤S100的信息同步后,获取第k次测量间隔内各个传感器的数据并计算第k次传感器数据的最大后验,计算k次测量的局部平均值LA,进一步计算全局均值GA;计算每个传感器的测量贴进度,若测量贴进度大于等于预设门限D,则计算得到单一的融合值作为相似性输出:其中,n∈(1,2)为经门限逻辑比较后选用的传感器个数,xtotal为单一的融合值;步骤S300:基于卡尔曼滤波的IMU/机载视觉姿态融合;采集IMU实验数据并经过四元数解算得到姿态角数据,同时对图像采集的图片进行处理得到相机的内、外参数;采用卡尔曼滤波融合姿态角数据和外参数。为了更好的实现本专利技术,进一步的,所述步骤S300主要包括以下步骤:步骤S301:IMU数据的采集频率为200Hz;步骤S302:通过四元数解算姿态角:步骤S303:相机内参数标定,相机的内部参数包括相机焦距f、主点坐标、像素大小;采用棋盘标定法间隙标定;步骤S304:相机外参数解算:外参数求解就是旋转矩阵R与平移矩阵t的求解,然后进行坐标的变换;步骤S305:将IMU数据和机载视觉数据进行融合:以实验采集数据模拟IMU和视觉信号,在拍摄时,变换摄像头姿态;相对于背景来说,有上视视角、右视视角和正面视角,采集连续的图片及对应的IMU数据,通过时间戳对齐,在matlab平台以及VS2013平台下,解算姿态角。为了更好的实现本专利技术,进一步的,所述步骤S302主要包括以下步骤:R'=qRq'式中,R表示被旋转的矢量,R'表示经四元数旋转之后的矢量,q表示四元数,q'表示其转置,四元数的标量部分表示转角的余弦值,其矢量部分表示瞬时转轴n的方向;下式表示矢量R相对参考坐标系旋转一个转角θ,旋转轴的方向由四元数的虚部确定,cosα、cosβ、cosγ表示旋转轴n与参考坐标系轴间的方向余弦值:q=λ+p1i+p2j+p3k式中,λ表示四元数的实部,p1、p2和p3表示四元数的虚部;四元数法姿态矩阵计算如下:①初始四元数的确定,其输入为初始的姿态角:θ0、ψ0和γ0代表俯仰角、偏航角、滚转角的初始值;②四元数标量部分与矢量部分λ、p1、p2、p3的实时计算:输入信号为陀螺仪的数字输出信号其中i为x、y、z,ωib为三轴角速率,Δθ为陀螺仪积分得到的角度增量;计算方法采用二阶龙格库塔法:T为时间间隔,t代表当前时刻,Ωb(t)由陀螺仪角速率构成的反对称矩阵,K1、K2和Y是中间变量,式子表示的是下一个时刻的四元数值由上一个时刻的四元数值和一个估算的斜率的乘积所决定;③姿态矩阵的实时计算:确定姿态矩阵输入为λ(n)、p1(n)、p2(n)和p3(n):式中,表示大地系转机体系旋转矩阵;④载体姿态角计算,以确定姿态角θ、ψ和γ,输入为T11(n)、T12(n)、T13(n)、T23(n)和T33(n):θ=-arcsin(T13(n))方向余弦法姿态矩阵的计算与四元数法的区别主要是姿态矩阵的描述不同,其描述如式所示:其解算方向余弦矩阵微分方程为得到方向余弦矩阵后可提取姿态角;其中Ω为旋转角速度的斜对称矩阵。为了更好的实现本专利技术,进一步的,所述步骤S304中对于旋转矩阵R的解算如下:①据连续的两张图片得到特征匹配点计算对极几何关系,得到基础矩阵F:两图中任意一对匹配点满足x'TFx=0,记两图匹配点坐标分别为x=(x,y,1)T,x'=(x',y',1)T,fij为基础矩阵F中i行j列元素,则满足:展开后有:x'xf11+x'yf12+x'f13+y'xf21+y'yf22+y'f23+xf31+yf32+f33=0将基础矩阵F写成列向量f的形式,则有:[x'xx'yx'y'xy'yy'xy1]f=0随机从匹配点对中选定8组,设为则有:令左边矩阵为A,则有Af=0,进行线性运算易得基础矩阵F,用F进行验算,计算验算成功的点对数n;再随机选择8组点对,重复以上步骤,找到使n最大的F作为最终求得的基础矩阵F;②对基础矩阵F通过归一化图像坐标进行转换得到本质矩阵E:假设摄像机外参矩阵P=[R|t],则x=PX,式中,R表示旋转坐标系,t表示两张图片的平移,x表示相机坐标系下坐标,X表示世界坐标系下坐标;已知摄像机标定矩阵K,将K的逆矩阵作用于点x得到点则是图像上的点在归一化坐标下的表示,本质矩阵即在归一化图像坐标下的基础矩阵;得到本质矩阵E和基础矩阵F的关系:E=K'TFK在已知摄像机内参矩阵的条件下,将基础矩阵F转换为本质矩阵E;③对本质矩阵E进行奇异值分解求解出旋转矩阵R:本质矩阵E已知,即可恢复舰载机机载摄像机的内参矩阵,令E=[t]×R=SR,S为反对称矩阵,则可求解旋转矩阵R;选择拍摄的物体位于舰载机机载摄像机的前方所对应的点,得到机载摄像机的外参矩阵P的解,从而得到旋转矩阵。为了更好的实现本专利技术,进一步的,所述步骤S305中以欧拉角为状态量xk,单目视觉测量的结果为观测量yk,取Ak、Ck均为单位矩阵,将w和v看作是独立分布的、满足正态分布的白噪声,下面分别为状态方程和量测方程:xk=xk-1+wk-1yk=xk+vkp(w)~N(0,Q),p(v)~N(0,R),其中Q是过程噪声的方差,R是测量噪声的方差,p表示噪声的概率密度;Q、R随着时间变化,这里设定为常量;由于两种数据的采集采用的是不同的频率,在不到50s的实验中,IMU的测量采集了9162个数据,视觉采集了687张图片,因此对应的分别是9162个姿态角和687个姿态角;为了对应好两者的数据,选择将9162个姿态角的每40个姿态角进行平均取值,687个姿态角中每3个姿态角进行平均取值,这样可以对应出224个数据,在卡尔曼滤波的程序中进行融合。为了更好的实现本专利技术,进一步的,所述步骤S200主要包括以下步骤:步骤S201:假设视觉传感器及激光雷达安装于无人机导航坐标系原点下部,即OZn轴上,本文档来自技高网...

【技术保护点】
1.一种基于无人机多传感器信息融合技术的着舰引导方法,其特征在于,主要包括以下步骤:步骤S100:基于最小二乘法进行信息同步:步骤S200:基于贝叶斯估计的着舰引导传感器融合;在步骤S100的信息同步后,获取第k次测量间隔内各个传感器的数据并计算第k次传感器数据的最大后验,计算k次测量的局部平均值LA,进一步计算全局均值GA;计算每个传感器的测量贴进度,若测量贴进度大于等于预设门限D,则计算得到单一的融合值作为相似性输出:

【技术特征摘要】
1.一种基于无人机多传感器信息融合技术的着舰引导方法,其特征在于,主要包括以下步骤:步骤S100:基于最小二乘法进行信息同步:步骤S200:基于贝叶斯估计的着舰引导传感器融合;在步骤S100的信息同步后,获取第k次测量间隔内各个传感器的数据并计算第k次传感器数据的最大后验,计算k次测量的局部平均值LA,进一步计算全局均值GA;计算每个传感器的测量贴进度,若测量贴进度大于等于预设门限D,则计算得到单一的融合值作为相似性输出:其中,n∈(1,2)为经门限逻辑比较后选用的传感器个数,xtotal为单一的融合值;步骤S300:基于卡尔曼滤波的IMU/机载视觉姿态融合;采集IMU实验数据并经过四元数解算得到姿态角数据,同时对图像采集的图片进行处理得到相机的内、外参数;采用卡尔曼滤波融合姿态角数据和外参数。2.根据权利要求1所述的一种基于无人机多传感器信息融合技术的着舰引导方法,其特征在于,所述步骤S300主要包括以下步骤:步骤S301:IMU数据的采集频率为200Hz;步骤S302:通过四元数解算姿态角:步骤S303:相机内参数标定,相机的内部参数包括相机焦距f、主点坐标、像素大小;采用棋盘标定法间隙标定;步骤S304:相机外参数解算:外参数求解就是旋转矩阵R与平移矩阵t的求解,然后进行坐标的变换;步骤S305:将IMU数据和机载视觉数据进行融合:以实验采集数据模拟IMU和视觉信号,在拍摄时,变换摄像头姿态;相对于背景来说,有上视视角、右视视角和正面视角,采集连续的图片及对应的IMU数据,通过时间戳对齐,在matlab平台以及VS2013平台下,解算姿态角。3.根据权利要求2所述的一种基于无人机多传感器信息融合技术的着舰引导方法,其特征在于,所述步骤S302主要包括以下步骤:R'=qRq'式中,R表示被旋转的矢量,R'表示经四元数旋转之后的矢量,q表示四元数,q'表示其转置,四元数的标量部分表示转角的余弦值,其矢量部分表示瞬时转轴n的方向;下式表示矢量R相对参考坐标系旋转一个转角θ,旋转轴的方向由四元数的虚部确定,cosα、cosβ、cosγ表示旋转轴n与参考坐标系轴间的方向余弦值:q=λ+p1i+p2j+p3k式中,λ表示四元数的实部,p1、p2和p3表示四元数的虚部;四元数法姿态矩阵计算如下:①初始四元数的确定,其输入为初始的姿态角:θ0、ψ0和γ0代表俯仰角、偏航角、滚转角的初始值;②四元数标量部分与矢量部分λ、p1、p2、p3的实时计算:输入信号为陀螺仪的数字输出信号其中i为x、y、z,ωib为三轴角速率,Δθ为陀螺仪积分得到的角度增量;计算方法采用二阶龙格库塔法:T为时间间隔,t代表当前时刻,Ωb(t)由陀螺仪角速率构成的反对称矩阵,K1、K2和Y是中间变量,式子表示的是下一个时刻的四元数值由上一个时刻的四元数值和一个估算的斜率的乘积所决定;③姿态矩阵的实时计算:确定姿态矩阵输入为λ(n)、p1(n)、p2(n)和p3(n):式中,表示大地系转机体系旋转矩阵;④载体姿态角计算,以确定姿态角θ、ψ和γ,输入为T11(n)、T12(n)、T13(n)、T23(n)和T33(n):θ=-arcsin(T13(n))方向余弦法姿态矩阵的计算与四元数法的区别主要是姿态矩阵的描述不同,其描述如式所示:其解算方向余弦矩阵微分方程为得到方向余弦矩阵后可提取姿态角;其中Ω为旋转角速度的斜对称矩阵。4.根据权利要求3所述的一种基于无人机多传感器信息融合技术的着舰引导方法,其特征在于,所述步骤S304中对于旋转矩阵R的解算如下:①据连续的两张图片得到特征匹配点计算对极几何关系,得到基础矩阵F:两图中任意一对匹配点满足x'TFx=0,记两图匹配点坐标分别为x=(x,y,1)T,x'=(x',y',1)T,fij为基础矩阵F中i行j列元素,则满足:展开后有:x'xf11+x'yf12+x'...

【专利技术属性】
技术研发人员:熊洪睿黄捷冯山韩婵邹阳王新华
申请(专利权)人:成都飞机工业集团有限责任公司
类型:发明
国别省市:四川,51

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1