【技术实现步骤摘要】
一种多目标位姿实时在线估计方法、系统、设备及介质
[0001]本专利技术涉及无人系统智能视觉感知
,具体为一种多目标位姿实时在线估计方法系统、设备及介质。
技术介绍
[0002]近年来,随着无人机技术迅猛发展,由于其移动性强、成本低、监测高度可变等优点,无人机已被广泛应用于灾难救援、军事监控等领域。面向日趋丰富多样的无人机探测感知任务,结合体积小、重量轻、功耗和成本低的视觉传感器,对无人感知系统进一步提出了多目标、多维度以及强实时的能力需求,以支撑多种类、多数量救灾/监控目标位置、姿态信息的即时感知,航拍多目标位姿实时估计已成为完善感知探测目标信息的重要基础,是提升无人机感知系统自身智能水平的关键一环。
[0003]目前,受限于无人机感知系统载荷数量与信息处理能力,以及航拍目标体积小、数量多、动态非合作且容易被遮挡等原因,基于嵌入式设备的航拍多目标姿态在线实时估计难以实现。
技术实现思路
[0004]本专利技术目的在于提供一种多目标位姿实时在线估计方法,以克服现有技术中基于嵌入式设备的航拍多目标 ...
【技术保护点】
【技术特征摘要】
1.一种多目标位姿实时在线估计方法,其特征在于,包括以下步骤:S1:从不同高度及角度采集航拍车辆图像,并标注图像中的车头及车辆,生成航拍车辆训练集,并对航拍车辆训练集进行训练,生成目标检测模型;S2:对目标检测模型进行轻量化,并将轻量化后的目标检测模型部署在GPU嵌入式开发板上;S3:将搭载有云台摄像机的GPU嵌入式开发板安装在无人机上,获取航拍图像,并将获取到的航拍图像输入到轻量化后的目标检测模型,获得目标检测结果;S4:根据目标检测结果分别计算车头和车辆检测框的重叠率,实现车辆和对应车头的关联,然后连接车辆和车头的质心,计算车辆的姿态角;S5:根据目标检测结果,以欧氏距离作为相邻帧目标间的相似度度量,建立关联矩阵,求解全局最优匹配,对最优匹配结果进行筛选,得到目标跟踪结果,将目标跟踪结果与车辆姿态角进行匹配,获得目标的实时位姿。2.根据权利要求1所述的一种多目标位姿实时在线估计方法,其特征在于,S1中采用YOLOv5s网络对航拍车辆训练集进行训练。3.根据权利要求1所述的一种多目标位姿实时在线估计方法,其特征在于,目标检测模型的轻量化是对目标检测模型进行压缩和优化。4.根据权利要求1所述的一种多目标位姿实时在线估计方法,其特征在于,车头和车辆检测框的重叠率计算公式为:其中,分别为车头i和车辆j的检测框的面积。5.根据权利要求1所述的一种多目标位姿实时在线估计方法,其特征在于,车辆姿态角的计算公式为:其中,(x1,y1)和(x2,y2)分别为车头和车辆的质心坐标。6.根据权利要求1所述的一种多目标位姿实时在线估计方法,其特征在于,关联矩阵为:其中,表示第t帧中检测到的第i个车辆,M和N分别表示第t帧...
【专利技术属性】
技术研发人员:李森,胡玉龙,刘品,陈皓,李珂,唐艺菁,
申请(专利权)人:西安微电子技术研究所,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。