【技术实现步骤摘要】
基于单目视觉的多无人机智能识别及相对定位方法
[0001]本专利技术属于无人机编队感知研究领域。针对GPS拒止环境下无人机编队的定位问题,设计了一种新型多无人机基于单目视觉的智能识别及相对定位算法。
技术介绍
[0002]近年来,随着无人机技术的高速发展,无人机开始被用来执行一些高复杂性、高动态性和高度不确定的任务。虽然旋翼无人机有着上述众多优势,但由于无人机需要满足轻量化和小型化,单架无人机的效率和性能受限,当执行复杂任务时容错率较低。因此,无人机的任务模式开始由单机执行任务模式向多无人机协同作业方向发展。
[0003]在军用及民用领域,无人机自主飞行执行任务需要无人机具备定位能力。对单个无人机而言,其搭载的惯性测量单元(Inertial Measurement Unit,IMU)可以计算出无人机三轴姿态角、角速度和角加速度,通过IMU获取的数据从而可以对无人机进行快速、稳定的姿态控制。而对于无人机编队而言,由于编队内无人机在三维空间中要以一定的结构形式形成某种队形排列,因此编队内的无人机不仅需要自身位置,更需要获取其他无人机的位置。在室内情况下,运动捕捉系统由于其毫米级的定位精度被广泛应用,但运动捕捉系统作为外部设备,也限制着无人机只能在系统覆盖的区域实现定位。在室外情况下,基于全球定位系统(Global Positioning System,GPS)的定位方法已成为主流,但其定位精度不高,在楼宇间以及森林环境下信号微弱甚至丢失。除上述方法外,常用的定位技术还有RTK(Real
‑
tim ...
【技术保护点】
【技术特征摘要】
1.一种多无人机基于单目视觉的智能识别及编队相对定位方法,其特征是,在跟随无人机上,根据单目视觉信息,并利用基于Darknet的卷积神经网络在线检测识别视野中的领航无人机,利用识别结果计算出跟随无人机自身相对领航机的相对位置,利用控制算法实现跟随无人机对领航机跟踪。2.如权利要求1所述的多无人机基于单目视觉的智能识别及编队相对定位方法,其特征是,采用的卷积神经网络为具有24层网络的YOLOv3
‑
tiny,该网络架构采用全卷积的方式,无全连接层,最后输出的特征图送入YOLO层,YOLO层采用基于Anchor的预测方法来取代全连接层。3.如权利要求2所述的多无人机基于单目视觉的智能识别及编队相对定位方法,其特征是,采用的卷积神经网络具体结构如下:(1)卷积层a.卷积计算卷积的主要功能是指卷积核即滤波器通过在输入图片上滑动,通过卷积操作从而得到一组新的图像特征;b.批归一化输入为一个小批量样本:I={λ1,...,λ
n
};输出:{y
i
=BN
λ,β
(λ
i
)},其具体展开如(1)所示.其中,ε为大于0的常数,作用为防止分母等于0,γ,β为需要学习的模型参数,采用滚动平均值式(2)的方法来替代式(1)中平均值μ
I
的计算;c.激活函数YOLO层前的卷积层输出经过的激活函数为线性激活函数linear(f(x)=x),其余卷积层都经过非线性激活函数LeakyReLU处理后输出;(2)最大值池化层Maxpool池化层pooling layer通常在卷积层之后使用,用于进行降采样,网络池化层均采用最大值池化方式;(3)上采样层Upsample与特征融合层Route采样层使用了最近邻差值方法,该差值方法无需计算,通过将与待求像素距离最近的邻像素的像素值赋值给待求像素值来实现;特征融合层的作用是将浅层卷积网络与深层卷积网的输出特征图在深度方向上进行拼接,特征融合的作用是保留浅层特征图的信息,为之后YOLO层的预测保留更多的特征;
(4)YOLO层YOLO层对全连接层进行了取代,作用是在全卷积神经网络输出的特征图上进行分类和定位回归,共采用两个YOLO层,分别负责不同尺度特征图的预测,实现多尺度预测,即大网格预测大物体,小网格预测小物体,每个网格会由三个先验框即Anchor进行预测。4.如权利要求2所述的多无人机基于单目视觉的智能识别及编队相对定位方法,其特征是,预测流程设计;输入图片通过卷积神经网络提取特征,得到n
×
n大小的特征图,然后再将输入图像平均分成n
×
n个网格,根据训练集中提供的Bbox真值,目标的中心坐标落在哪个网格中,就由该网格来预测该目标m每个网格会有固定数量的边界框参与预测,预测使用的先验边界框是预先通过K
‑
means聚类得到的固定大小的锚框Anchor,此外,预测得到的特征图除上述n
×
n的两个特征维度外,还有纵向的深度维度,大小为B*(5+C),其中B表示每个网格所需要预测的边界框数量,C表示边界框的类别,5表示Bbox的四个坐标信息和目标置信度;卷积神经网络需要为每个Bbox预测四个坐标值,网络输出t
x
,t
y
,t
w
,t
h
为相对目标中心网格左上角坐标的偏移值,其中t
x
表示目标中心网格左上角坐标x方向的偏移值,t
y
表示目标中心网格左上角坐标y方向的偏移值,t
w
为矩形框宽度方向上的偏移量,t
h
为矩形框高度方向上的偏移量;进而通过式(4)计算得出预测的Bbox坐标值,其中c
x
,c
y
为目标中心网格距图像坐标系原点的偏移量,l
w
,l
h
表示为锚框的宽和高,σ(
·
)为sigmoid函数,其值域为(0,1)起归一化作用,计算结果b
x
,b
y
,b
w
,b
h
表示预测得到的Bbox坐标,以网格为单位:卷积神经网络除了需要预测Bbox坐标外,还需要预测出类别置信度得分其计算公式如式(5),其中Pr(Class
i
)表示目标属于类别i的概率,指预测框和真值框之间的交叠比IoU(Intersection over Union),Pr(Class
i
|Object)指条件类别概率,表示在目标已经存在的前提下目标属于类别i的概率,Pr(Object
i
)表示Bbox框是否包含目标的概...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。