【技术实现步骤摘要】
基于Transformer的多传感器融合目标检测方法
[0001]本专利技术涉及目标检测
,特别是涉及一种摄像头、激光雷达和毫米波雷达融合的目标检测方法。
技术介绍
[0002]近年来,随着智能驾驶技术的飞速发展,车辆行业对提高驾驶安全性的高级辅助驾驶系统的发展愈发重视,准确高效的环境感知是实现高级辅助驾驶的首要任务,当前,智能车辆环境感知技术主要依赖于雷达、视觉等车载传感器。视觉传感器主要用于目标识别等,优点有探测范围广,目标信息较完善等,缺点有计算量大,无法获取深度信息等;毫米波雷达传感器主要用于目标位置和速度检测,优点有可直接获取障碍物距离速度信息,可穿透雨雾浓烟等,缺点有噪声大,无法获取目标轮廓;激光雷达主要用于障碍物检测识别,深度信息获取,优点有可直接获取环境的三维信息,抗干扰性强,缺点有易受雨雪大雾等天气影响,成本较高;由于工作原理等方面原因,单一传感器通常只能获得被检测目标的部分特征,无法全面描述道路环境信息,难以满足智能驾驶的环境感知需求。
[0003]目前,较为流行的基于规则的后融合算法因为不同传感器的数据处理方法不同,所以在融合阶段需要对多传感器进行两两联合标定,难点之一就是时空对齐,将不同传感器的数据统一到同一坐标系下,难点之二就是融合策略的制定,针对传感器失效的情况,融合过程很难持续进行。
技术实现思路
[0004]本专利技术针对现有方法存在的问题,提供一种基于Transformer的多传感器融合目标检测方法,以期能实现智能驾驶领域感知方向的多传感器目标融合,获取 ...
【技术保护点】
【技术特征摘要】 【专利技术属性】
1.一种基于Transformer网络的多传感器融合目标检测方法,其特征在于,包括如下步骤:A、由摄像头获取原始图像数据并输入预训练后的目标检测神经网络YOLOv4中进行处理,并输出道路目标的图像识别结果,其中,任意一个道路目标的图像识别结果所组成的图像特征序列记为N
C
,包括:道路目标的类别信息class
cam
和2D检测框数据bbox
cam_2D
以及置信度score
cam
,所述2D检测框数据bbox
cam_2D
包括:2D检测框的中心坐标(x
C_2D
,y
C_2D
),2D检测框的长w
C_2D
和宽h
C_2D
;B、由激光雷达采集点云数据并输入预训练后的点云目标检测网络Pointpillars中进行处理,并输出道路目标的点云识别结果,其中,任意一个道路目标的点云识别结果所组成的点云特征序列记为N
L
,包括:道路目标的类别信息class
lidar
、2D检测框数据bbox
lidar_2D
、3D检测框数据bbox
lidar_3D
以及置信度score
lidar
;所述2D检测框数据bbox
lidar_2D
包括2D检测框的中心坐标2D检测框的长和宽所述3D检测框数据bbox
lidar_3D
包括:3D检测框的中心坐标3D检测框的长宽和高C、利用毫米波雷达采集原始2D点云数据并进行聚类处理,得到道路目标的聚类结果,任意一个道路目标的聚类结果所组成的2D点云特征序列记为N
R
,包括:道路目标的类别信息class
radar
、2D检测框数据bbox
radar_2D
、道路目标速度信息velocity
radar
以及置信度score
radar
;所述2D检测框数据bbox
radar_2D
包括:2D检测框的中心坐标(x
R_2D
,y
R_2D
),2D检测框的长w
R_2D
和宽h
R_2D
;D、将图像特征序列N
C
、点云特征序列N
L
、2D点云特征序列N
R
在特征维度上填充到统一尺寸,从而相应得到填充后的第一种模态C、第二种模态L、第三种模态R;E、利用一种基于Transformer的多模态感知融合网络对所述第一种模态C、第二种模态L、第三种模态R进行处理:E1、采用Transformer编码器对所述第一种模态C和第二种模态L进行关联和映射,从而将第二种模态L的低阶特征去潜在适应第一种模态C的特征数据,并输出融合模态C
*
;E2、采用Transformer编码器对所述融合模态C
*
技术研发人员:张炳力,杨程磊,姜俊昭,潘泽昊,王欣雨,王怿昕,王焱辉,
申请(专利权)人:合肥工业大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。