基于视觉和UWB融合的无人机相对导航方法及系统技术方案

技术编号:38863660 阅读:17 留言:0更新日期:2023-09-17 10:04
本发明专利技术提供一种基于视觉和UWB融合的无人机相对导航方法及系统,涉及无人机技术领域,包括:首先通过目标无人机的图像得到目标无人机的中心坐标预测值,进一步得到目标无人机的方位角和高低角;然后获取相对距离信息,并进行计算得到实际相对距离;再根据方位角、高低角和实际相对距离进行计算,得到目标无人机的相对坐标;最后根据目标无人机的相对坐标对跟随无人机进行导航。本发明专利技术在无人机通信链路收到干扰情况下,能实现连续、高精度的无人机相对定位,继而实现导航。继而实现导航。继而实现导航。

【技术实现步骤摘要】
基于视觉和UWB融合的无人机相对导航方法及系统


[0001]本专利技术涉及无人机
,特别是涉及一种基于视觉和UWB融合的无人机相对导航方法及系统。

技术介绍

[0002]无人机蜂群执行任务需要根据任务协同、环境、性能等要求,实现编队队形的维持、变换、重构等控制,高精度的位置信息包含了无人机的三维空间分布,是实现队形控制的要素。通过稳定的通信链路获取高精度、高可靠、自主相对时空信息的能力,成为制约无人蜂群技术发展和应用的关键。
[0003]超宽带(UltraWide Band,简称UWB)、视觉等相对测量传感器,可实现完全自主的相对信息测量,UWB可测的节点间标量距离信息并可进行弱通信,通过阵列布局可测的相对方位,但对于机间距离大于100米的小型无人机集群编队,阵列式布局的UWB测得方位角误差较大,单目相机可以获得相对方位角,结合UWB和单目视觉的优点,是实现无人机蜂群相对定位优选技术算法。
[0004]专利CN114111645B所述的一种基于视觉检测的角度测量方法及系统,通过视觉检测的方法,对不垂直于视觉检测方向的待测量角进行距离检测,以得到实测角度。这种方法需要提前测得不垂直方向的距离,且距离测量对精度有较大影响。专利CN114993299B所述的一种基于超宽带的无人机辅助定位方法及系统,通过对测距和定位两个阶段的UWB进行优化,从而提升超宽带定位精度。这种方法需设置多个UWB传感器锚点,同时设置地面UWB基站,容易受到环境的限制,难以在未知环境中部署。

技术实现思路

[0005]本专利技术的目的在于提供一种基于视觉和UWB融合的无人机相对导航方法及系统,在无人机通信链路收到干扰情况下,能实现连续、高精度的无人机相对定位,继而实现导航。
[0006]一种基于视觉和UWB融合的无人机相对导航方法,其包括:
[0007]获取t时刻目标无人机的图像,根据t时刻目标无人机的中心坐标预测值进行特征匹配,得到匹配特征;
[0008]基于所述匹配特征,结合训练好的目标识别模型,在t时刻目标无人机的图像中进行目标识别,得到t时刻目标无人机的中心坐标实际值;
[0009]基于t时刻目标无人机的中心坐标实际值进行预测,得到t+1时刻目标无人机的中心坐标预测值;
[0010]基于t时刻目标无人机的中心坐标实际值,得到t时刻目标无人机在相机视线的方位角和高低角,公式如下:
[0011][0012]式中:[u0,v0]是物理坐标系原点在图像坐标系中的坐标,[u,v]为t时刻目标无人机在像素坐标系下的中心坐标实际值,q
β
为t时刻目标无人机在相机视线的方位角,q
α
为t时刻目标无人机在相机视线的高低角,dx为像面上每一个像素在x轴的物理尺寸,dy为像面上每一个像素在y轴的物理尺寸;
[0013]获取t时刻跟随无人机与目标无人机之间的相对距离信息,并进行计算,得到t时刻跟随无人机与目标无人机之间的实际相对距离;计算公式如下:
[0014][0015]式中:d
t
为t时刻跟随无人机与目标无人机之间的相对距离信息,d为t时刻跟随无人机与目标无人机之间的实际相对距离,d
e
为测距误差,error为标签信息传输的时间误差,c为光速;
[0016]基于t时刻目标无人机在相机视线的方位角、t时刻目标无人机在相机视线的高低角和t时刻跟随无人机与目标无人机之间的实际相对距离进行计算,得到t时刻目标无人机的相对坐标[x,y,z];计算公式如下:
[0017][0018]式中:[x,y,z]为相机坐标系下,t时刻目标无人机的三轴坐标,即t时刻目标无人机的相对坐标;
[0019]基于t时刻目标无人机的相对坐标对跟随无人机进行导航。
[0020]优选地,基于设置在跟随无人机上的UWB相对距离检测模块获取t时刻跟随无人机与目标无人机之间的相对距离信息;
[0021]根据标签A发送消息的时间与标签B接收消息的时间之间的时间差得到第一延时T
reply

[0022]根据标签B发送消息的时间与标签A接收消息的时间之间的时间差得到第二延时T
round

[0023]根据第一延时和第二延时进行计算得到标签A与标签B之间的飞行时间,计算公式如下:
[0024][0025]式中:表示标签A与标签B之间的飞行时间;
[0026]根据标签A与标签B之间的飞行时间进行计算,得到标签信息传输的时间误差,计算公式如下:
[0027][0028]式中:e
A
表示标签A的时钟偏移,e
B
表示标签B的时钟偏移,T
prop
为消息在标签之间的飞行时间。
[0029]优选地,目标识别模型选用YOLOv3

Darknet

53网络模型。
[0030]优选地,定义多维状态向量x表征目标无人机的状态,如下式所示:
[0031][0032]式中:w为检测矩形框的宽度,h为检测矩形框的高度,为(u,v,w,h)的导数,表示检测矩形框的速度信息,初始值为0;
[0033]t时刻目标无人机的中心坐标预测值如下式:
[0034][0035]式中:X
t
为t时刻目标无人机的状态预测值,F为状态转移矩阵,X
t
‑1为t

1时刻无人机的状态实际值,P
t
为t时刻的无人机的状态预测值与t时刻的无人机的状态实际值的误差协方差矩阵,P
t
‑1为t

1时刻的无人机的状态预测值与t

1时刻的无人机的状态实际值的误差协方差矩阵,T为转置,Q为过程噪声,Q
t
‑1为t

1时刻的过程噪声。
[0036]优选地,基于卡尔曼滤波器,对t时刻目标无人机的中心坐标实际值进行预测,得到t+1时刻目标无人机的中心坐标预测值。
[0037]本专利技术还提供了一种基于视觉和UWB融合的无人机相对导航系统,其包括:
[0038]数据获取匹配模块,用于获取t时刻目标无人机的图像,并根据t时刻目标无人机的中心坐标预测值进行特征匹配,得到匹配特征;
[0039]目标识别模块,用于基于所述匹配特征,结合训练好的目标识别模型,在t时刻目标无人机的图像中进行目标识别,得到t时刻目标无人机的中心坐标实际值;
[0040]目标预测模块,用于基于t时刻目标无人机的中心坐标实际值进行预测,得到t+1时刻目标无人机的中心坐标预测值;
[0041]角度模块,用于基于t时刻目标无人机的中心坐标实际值,得到t时刻目标无人机在相机视线的方位角和高低角,公式如下:
[0042][0043]式中:[u0,v0]是物理坐标系原点在图像坐标系中的坐标,[u,v]为t时刻目标无人机在像素坐标系下的本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于视觉和UWB融合的无人机相对导航方法,其特征在于,其包括:获取t时刻目标无人机的图像,根据t时刻目标无人机的中心坐标预测值进行特征匹配,得到匹配特征;基于所述匹配特征,结合训练好的目标识别模型,在t时刻目标无人机的图像中进行目标识别,得到t时刻目标无人机的中心坐标实际值;基于t时刻目标无人机的中心坐标实际值进行预测,得到t+1时刻目标无人机的中心坐标预测值;基于t时刻目标无人机的中心坐标实际值,得到t时刻目标无人机在相机视线的方位角和高低角,公式如下:式中:[u0,v0]是物理坐标系原点在图像坐标系中的坐标,[u,v]为t时刻目标无人机在像素坐标系下的中心坐标实际值,q
β
为t时刻目标无人机在相机视线的方位角,q
α
为t时刻目标无人机在相机视线的高低角,dx为像面上每一个像素在x轴的物理尺寸,dy为像面上每一个像素在y轴的物理尺寸;获取t时刻跟随无人机与目标无人机之间的相对距离信息,并进行计算,得到t时刻跟随无人机与目标无人机之间的实际相对距离;计算公式如下:式中:d
t
为t时刻跟随无人机与目标无人机之间的相对距离信息,d为t时刻跟随无人机与目标无人机之间的实际相对距离,d
e
为测距误差,error为标签信息传输的时间误差,c为光速;基于t时刻目标无人机在相机视线的方位角、t时刻目标无人机在相机视线的高低角和t时刻跟随无人机与目标无人机之间的实际相对距离进行计算,得到t时刻目标无人机的相对坐标[x,y,z];计算公式如下:式中:[x,y,z]为相机坐标系下,t时刻目标无人机的三轴坐标,即t时刻目标无人机的相对坐标;基于t时刻目标无人机的相对坐标对跟随无人机进行导航。2.根据权利要求1所述的基于视觉和UWB融合的无人机相对导航方法,其特征在于,基于设置在跟随无人机上的UWB相对距离检测模块获取t时刻跟随无人机与目标无人机之间的相对距离信息;根据标签A发送消息的时间与标签B接收消息的时间之间的时间差得到第一延时T
reply

根据标签B发送消息的时间与标签A接收消息的时间之间的时间差得到第二延时T
round
;根据第一延时和第二延时进行计算得到标签A与标签B之间的飞行时间,计算公式如下:式中:表示标签A与标签B之间的飞行时间;根据标签A与标签B之间的飞行时间进行计算,得到标签信息传输的时间误差,计算公式如下:式中:e
A
表示标签A的时钟偏移,e
B
表示标签B的时钟偏移,T
prop
为消息在标签之间的飞行时间。3.根据权利要求1所述的基于视觉和UWB融合的无人机相对导航方法,其特征在于,目标识别模型选用YOLOv3

Darknet

53网络模型。4.根据权利要求1所述的基于视觉和UWB融合的无人机相对导航方法,其特征在于,定义多维状态向量x表征目标无人机的状态,如下式所示:式中:w为检测矩形框的宽度,h为检测矩形框的高度,为(u,v,w,h)的导数,表示检测矩形框的速度信息,初始值为0;t时刻目标无人机的中心坐标预测值如下式:式中:X
t
为t时刻目标无人机的状态预测值,F为状态转移矩阵,X
t
‑1为t

1时刻无人机的状态实际值,P
t
为t时刻的无人机的状态预测值与t时刻的无人机的状态实际值的误差协方差矩阵,P
t
‑1为t

1时刻的无人机的状态预测值与t

1时刻的无人机的状态实际值的误差协方差矩阵,T为转置,Q为过程噪声,Q
t
‑1为t

1时刻的过程噪声。5.根据权利要求1所述的基于视觉和UWB融合的无人机相对导航方法,其特征在于,基于卡尔曼滤波器,对t时刻目标无人机的中心坐标实际值进行预测,得到t+1时刻目标无人机的中心坐标预测值。6.一种基于视觉和UWB融合的无人机相对导航系统,其特征在于,其包括:数据获取匹配模...

【专利技术属性】
技术研发人员:缪存孝张贺张云朋叶文张凌浩李玉峰郭彦腾郑云海
申请(专利权)人:北京科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1