【技术实现步骤摘要】
基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法
[0001]本专利技术属于无人机环境感知领域,特别涉及基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法。
技术介绍
[0002]无人机作为一种飞行机器人,因其具有灵活机动、携带便捷和可在多种不同复杂环境中工作等优点,目前已在工业、农业、商业和民用消费市场等诸多领域中得到广泛应用,具有广阔的发展前景。在无人机应用中,对环境中感兴趣的多目标进行在线跟踪是无人机监测、跟随和目标导引等功能实现的重要基础,在近些年受到越来越多研究者的关注。
[0003]为了实现在线多目标跟踪,常用的感知传感器有单目相机、深度相机、激光雷达和毫米波雷达等。单目相机具有价格低廉、易于安装和采集图像语义信息丰富等优点,常用的实时单目相机多目标跟踪算法有DeepSort、ByteTrack和OC_SORT等。但由于无人机在飞行过程中存在相机抖动,容易导致目标跟踪丢失,且单目测距精度有限,因此仅使用单目相机实现无人机多目标跟踪效果不佳。深度相机的测距范围相对较小,且易受光照等环境因素干扰,因此在单独使用时,局限性较大。激光雷达可以同时提供丰富的语义信息和准确的目标距离信息,但高性能激光雷达通常价格昂贵、体积庞大、功耗较高,难以在无人机平台上广泛部署。毫米波雷达具有尺寸小、功耗低、受环境因素影响小和能准确测量多目标距离等优点,但毫米波雷达具有数据缺乏语义信息,角度测量精度低等缺点,难以单独完成准确的多目标跟踪任务。
[0004]目前已经申请方案如下:
[0005]申请号:CN2 ...
【技术保护点】
【技术特征摘要】
1.基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法,具体步骤如下,其特征在于:(1)读取毫米波雷达当前时刻的点云信息,其中第i个点云信息记为p
i
=[x,y,z,v
x
,v
y
,v
z
],式中x,y,z表示目标在空间各坐标轴方向的位置分量,v
x
,v
y
,v
z
表示目标在空间各坐标轴方向的速度分量,在获取雷达点云信息后,先使用欧式聚类算法滤除离群噪点,再使用每类点云的质心代表该类点云所对应的物体,质心计算的表达式为:(2)读取单目视觉采集的RGB图像,使用训练好的YOLOv5n目标检测模型实现感兴趣目标的在线检测与提取,通过目标检测算法得到感兴趣目标的检测框信息为:bbox=[u,v,w
b
,h
b
]式中,u,v为检测框中心点的像素坐标,w
b
,h
b
为检测框的宽和高;结合感兴趣目标的宽度或高度尺寸信息,利用图像检测框信息和相机投影模型,提出单目深度估计的计算表达式如下:式中,d为目标估计深度,f为相机焦距,w,h为目标实际尺寸,u,v为目标在像素坐标系中的尺寸;(3)对毫米波雷达和单目视觉进行联合标定,实现异源传感器数据的时空对准;(4)对完成时空同步的毫米波雷达和视觉检测数据进行一一匹配,筛选出感兴趣目标的多源传感器信息,采用全局最近邻匹配GNN算法实现数据匹配,两传感器数据之间的距离计算准则选取马氏距离,计算表达式为:式中,e
ij
表示两传感器测量的残差向量,S为对应的协方差。为了衡量数据匹配的风险代价,设置一门限值G来表示两传感器数据之间的最大匹配距离,门限值约束下的数据匹配的风险代价计算公式为:其中,c
ij
为某一数据对匹配的风险代价,D
max
为一远大于d
ij
和G的常数,当把雷达的各个量测元素分配给视觉的各个量测元素的总风险最小时,得到的分配结果为所需的全局最近邻数据匹配结果,实现该过程的优化目标为:邻数据匹配结果,实现该过程的优化目标为:(5)针对匹配成功的雷达数据和视觉数据,将两传感器数据进行融合,选取视觉检测框中心点,使用与之匹配的雷达深度信息对其在载体坐标系中的投影进行修正,计算公式为:
使用雷达测量值的速度信息,对修正视觉测量值投影进行补充,得到每个目标中心点的传感器融合测量值为Z
k
=[x
b
,y
b
,v
xb
,v
yb
],对于融合测量值,设计了一个卡尔曼滤波器来提高检测鲁棒性,滤波器的预测部分为:式中,状态转移矩阵F
k,k
‑1取值为表示匀速运动模型;系统协方差矩阵的初始值P0取单位阵,系统过程噪声矩阵Q
k
表示匀速运动模型的扰动量。滤波器的数据更新部分为:式中,Z
k
是当前测量值,H
k
是观测矩阵,在此处取值为单位阵,R
k
是观测噪声协方差矩阵。(6)设计一个基于全局最近邻匹配GNN算法和前述卡尔曼滤波器的串级在线多目标跟踪器,输出准确的在线多目标跟踪结果。2.根据权利要求1所述的基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法,其特征在于,步骤(2)中需使用TensorRT对YOLOv5n模型进行推理加速。3.根据权利要求1所述的基于视觉/毫米波雷达信息融合的无人机多目标跟踪方法,其特征在于,步骤(3)中所提出的具体传感器时空对准方法为:(3
‑
1)在进行时间对准时,提出采用最近邻时间匹配算法,该算法的原理为:计算雷达数据时间戳和相邻视觉检测数据时间戳的差值,将差值最小且小于设定阈值的数据对进行匹配,认为其对应于同一时刻,实现时间对准;(3
‑
2)完成时间对准后,提出...
【专利技术属性】
技术研发人员:王立辉,唐兴邦,陈飞鹏,李勇,任元,
申请(专利权)人:东南大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。