【技术实现步骤摘要】
多模态特征对齐融合的路侧目标检测方法、系统及装置
[0001]本专利技术属于计算机视觉领域,具体涉及了一种多模态特征对齐融合的路侧目标检测方法、系统及装置。
技术介绍
[0002]目标检测是自动驾驶和智能交通的核心组成部分。目前在道路交通场景下的三维目标检测任务中通常采用图像、点云等数据作为输入,预测道路上关键元素的几何和语义信息。基于图像的检测图像纹理信息丰富,但缺乏空间信息的维度,无法精确地恢复空间信息的位置。而激光雷达具有探测距离远、不受光线影响并且能够准确获得目标距离信息等优点,能够弥补相机图像的缺点。基于激光雷达的检测提供丰富的三维结构信息,但是存在点云稀疏的问题。因此,自动驾驶目标检测主要利用多传感器融合,特别是激光雷达和摄像机的融合。
[0003]不同模态的特征具有不同的表示方式,如何对齐多个模态特征进行融合是关键。无论是哪种方法,多模态数据融合的重要前提是把不同传感器的数据标定到同一个坐标系里,具体来说不同传感器的数据之间对应关系要准确。对于现实场景的交通数据集而言,由于数据集校准和同步过程存在误差,相机和激光雷达数据在时间和空间上存在不同步是很常见的问题。同时,我们还要考虑在特征级融合的方法中,不同模态的原始数据经过特征提取后由标定参数确定的对应关系会出现新的误差。由于这些特征经常被增强和聚合,融合中的一个关键挑战是如何有效地对齐来自两种模态转换后的特征。通过原始数据的标定参数获得粗糙的对应关系存在偏差时,结合两种模态优势的难度就大大增加。
[0004]近年来,多模态三维目标检测是一 ...
【技术保护点】
【技术特征摘要】
1.一种多模态特征对齐融合的路侧目标检测方法,其特征在于,该方法包括:步骤S10,获取待进行三维目标检测图像及其对应的点云数据;提取所述输入图像的多尺度特征图;提取所述点云数据的多个点特征集合;步骤S20,分别将多个点特征集合中的点特征映射在所述多尺度特征图上,得到对应的坐标;根据所述坐标获取区域值,在所述多尺度特征图上获取多个增加了所述区域值后的区域内的图像特征,作为第一融合图像特征;步骤S30,将所述多尺度特征图的图像特征、各第一融合图像特征分别与预构建的注意力权重矩阵融合,并将融合后的多尺度特征图的图像特征分别与融合后的各第一融合图像特征进行拼接,得到第二融合图像特征,将所述第二融合图像特征与对应的所述点特征集合进行拼接,得到增强的点云特征;步骤S40,对各多尺度特征图的图像特征进行反卷积处理,并将反卷积处理后的图像特征进行拼接,得到拼接图像特征,将所述拼接图像与所述增强的点云特征融合,得到多模态特征融合点云;将所述多模态特征融合点云通过检测头生成三维边界框和分类评分,作为三维目标检测结果进行输出;所述检测头基于卷积层构建。2.根据权利要求1所述的一种多模态特征对齐融合的路侧目标检测方法,其特征在于,所述第一融合图像特征,其获取方法为:步骤S21、获取所述点特征集合中的点云特征F
p
在激光雷达坐标上的坐标点P,将所述P在所述多尺度特征上的映射作为关键点坐标P
c
,以所述P
c
为指针在所述多尺度特征图上进行搜索,得到对应的多尺度特征图的图像特征F
i
;步骤S22、在所述P
c
周围增加区域值P
offset
,将所述区域值P
offset
与所述P
c
的和为指针进行搜索,得到第一融合图像特征F
′
i
:P
offset
=R
n
×
sigmoid(W1F
p
);P
′
c
=P
c
+P
offset
;其中,所述R
n
是邻域范围参数,所述W1为可学习权重矩阵,P
′
c
表示区域值P
offset
与P
c
的和。3.根据权利要求1所述的一种多模态特征对齐融合的路侧目标检测方法,其特征在于,所述增强的点云特征,其获取方法为:步骤S31,将所述点特征集合中的点云特征F
p
、所述图像特征F
i
和所述F
′
i
,通过多个可学习权重矩阵进行加权处理,得到注意力权重矩阵W
attention
、W
′
attention
:W
attention
=sigmoid(W4tanh(W2F
p
+W3F
i
));W
′
attention
=sigmoid(W4tanh(W2F
p
+W3F
i
));其中,W2、W3和W4为可学习权重矩阵;步骤...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。