【技术实现步骤摘要】
基于视觉和UWB融合的无人机相对导航方法及系统
[0001]本专利技术涉及无人机
,特别是涉及一种基于视觉和UWB融合的无人机相对导航方法及系统。
技术介绍
[0002]无人机蜂群执行任务需要根据任务协同、环境、性能等要求,实现编队队形的维持、变换、重构等控制,高精度的位置信息包含了无人机的三维空间分布,是实现队形控制的要素。通过稳定的通信链路获取高精度、高可靠、自主相对时空信息的能力,成为制约无人蜂群技术发展和应用的关键。
[0003]超宽带(UltraWide Band,简称UWB)、视觉等相对测量传感器,可实现完全自主的相对信息测量,UWB可测的节点间标量距离信息并可进行弱通信,通过阵列布局可测的相对方位,但对于机间距离大于100米的小型无人机集群编队,阵列式布局的UWB测得方位角误差较大,单目相机可以获得相对方位角,结合UWB和单目视觉的优点,是实现无人机蜂群相对定位优选技术算法。
[0004]专利CN114111645B所述的一种基于视觉检测的角度测量方法及系统,通过视觉检测的方法,对不垂直于视觉检测方向的待测量角进行距离检测,以得到实测角度。这种方法需要提前测得不垂直方向的距离,且距离测量对精度有较大影响。专利CN114993299B所述的一种基于超宽带的无人机辅助定位方法及系统,通过对测距和定位两个阶段的UWB进行优化,从而提升超宽带定位精度。这种方法需设置多个UWB传感器锚点,同时设置地面UWB基站,容易受到环境的限制,难以在未知环境中部署。
技术实现思路
[00 ...
【技术保护点】
【技术特征摘要】
1.一种基于视觉和UWB融合的无人机相对导航方法,其特征在于,其包括:获取t时刻目标无人机的图像,根据t时刻目标无人机的中心坐标预测值进行特征匹配,得到匹配特征;基于所述匹配特征,结合训练好的目标识别模型,在t时刻目标无人机的图像中进行目标识别,得到t时刻目标无人机的中心坐标实际值;基于t时刻目标无人机的中心坐标实际值进行预测,得到t+1时刻目标无人机的中心坐标预测值;基于t时刻目标无人机的中心坐标实际值,得到t时刻目标无人机在相机视线的方位角和高低角,公式如下:式中:[u0,v0]是物理坐标系原点在图像坐标系中的坐标,[u,v]为t时刻目标无人机在像素坐标系下的中心坐标实际值,q
β
为t时刻目标无人机在相机视线的方位角,q
α
为t时刻目标无人机在相机视线的高低角,dx为像面上每一个像素在x轴的物理尺寸,dy为像面上每一个像素在y轴的物理尺寸;获取t时刻跟随无人机与目标无人机之间的相对距离信息,并进行计算,得到t时刻跟随无人机与目标无人机之间的实际相对距离;计算公式如下:式中:d
t
为t时刻跟随无人机与目标无人机之间的相对距离信息,d为t时刻跟随无人机与目标无人机之间的实际相对距离,d
e
为测距误差,error为标签信息传输的时间误差,c为光速;基于t时刻目标无人机在相机视线的方位角、t时刻目标无人机在相机视线的高低角和t时刻跟随无人机与目标无人机之间的实际相对距离进行计算,得到t时刻目标无人机的相对坐标[x,y,z];计算公式如下:式中:[x,y,z]为相机坐标系下,t时刻目标无人机的三轴坐标,即t时刻目标无人机的相对坐标;基于t时刻目标无人机的相对坐标对跟随无人机进行导航。2.根据权利要求1所述的基于视觉和UWB融合的无人机相对导航方法,其特征在于,基于设置在跟随无人机上的UWB相对距离检测模块获取t时刻跟随无人机与目标无人机之间的相对距离信息;根据标签A发送消息的时间与标签B接收消息的时间之间的时间差得到第一延时T
reply
;
根据标签B发送消息的时间与标签A接收消息的时间之间的时间差得到第二延时T
round
;根据第一延时和第二延时进行计算得到标签A与标签B之间的飞行时间,计算公式如下:式中:表示标签A与标签B之间的飞行时间;根据标签A与标签B之间的飞行时间进行计算,得到标签信息传输的时间误差,计算公式如下:式中:e
A
表示标签A的时钟偏移,e
B
表示标签B的时钟偏移,T
prop
为消息在标签之间的飞行时间。3.根据权利要求1所述的基于视觉和UWB融合的无人机相对导航方法,其特征在于,目标识别模型选用YOLOv3
‑
Darknet
‑
53网络模型。4.根据权利要求1所述的基于视觉和UWB融合的无人机相对导航方法,其特征在于,定义多维状态向量x表征目标无人机的状态,如下式所示:式中:w为检测矩形框的宽度,h为检测矩形框的高度,为(u,v,w,h)的导数,表示检测矩形框的速度信息,初始值为0;t时刻目标无人机的中心坐标预测值如下式:式中:X
t
为t时刻目标无人机的状态预测值,F为状态转移矩阵,X
t
‑1为t
‑
1时刻无人机的状态实际值,P
t
为t时刻的无人机的状态预测值与t时刻的无人机的状态实际值的误差协方差矩阵,P
t
‑1为t
‑
1时刻的无人机的状态预测值与t
‑
1时刻的无人机的状态实际值的误差协方差矩阵,T为转置,Q为过程噪声,Q
t
‑1为t
‑
1时刻的过程噪声。5.根据权利要求1所述的基于视觉和UWB融合的无人机相对导航方法,其特征在于,基于卡尔曼滤波器,对t时刻目标无人机的中心坐标实际值进行预测,得到t+1时刻目标无人机的中心坐标预测值。6.一种基于视觉和UWB融合的无人机相对导航系统,其特征在于,其包括:数据获取匹配模...
【专利技术属性】
技术研发人员:缪存孝,张贺,张云朋,叶文,张凌浩,李玉峰,郭彦腾,郑云海,
申请(专利权)人:北京科技大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。