一种路侧感知系统的雷达与视觉目标匹配融合方法技术方案

技术编号:39648938 阅读:8 留言:0更新日期:2023-12-09 11:17
本发明专利技术公开了一种路侧感知系统的雷达与视觉目标匹配融合方法,包括以下步骤:步骤

【技术实现步骤摘要】
一种路侧感知系统的雷达与视觉目标匹配融合方法


[0001]本专利技术属于智能交通
,具体为一种路侧感知系统的雷达与视觉目标匹配融合方法


技术介绍

[0002]路侧感知就是利用摄像机

毫米波雷达

激光雷达等传感器,并结合路侧边缘计算,其最终目的是实现对该路段的交通参与者

路况等的瞬时智能感知

目前,在融合体系的数据源部分,常用到的传感器有摄像头

毫米波雷达和激光雷达

摄像头能够检测交通参与者类型
(
比如行人

车辆

骑行者
)
等信息,但是其受天气

光照强度的影响较大;毫米波雷达能够准确地检测目标的位置

速度等信息并且不会受天气状态的干扰,但是其容易漏检静止的目标,而且检测的目标噪点较多;激光雷达能够准确检测出静止和运动目标的位置

速度以及目标物的尺寸等信息,但是其环境敏感度高,易受大雪

灰尘影响

通过将多种传感器的数据融合能够结合不同传感器的优点,起到扬长避短的效果

[0003]雷达和视觉的融合策略可以分为三类:数据层融合,特征层融合,以及决策层融合

数据层融合的核心思想是由一种传感器数据生成目标物体的候选区域
(
术语称作
proposal)/>,然后在另外一种传感器数据上进行验证

这也就相当于融合了一种传感器的决策
(proposal)
和另外一种传感器的数据

与数据层融合相比,特征层的融合更加底层一些,也更有利于神经网络也学习不同传感器之间的互补性,但是算法设计的复杂程度也相对较高

一般的做法是将点云数据映射到图像坐标系下,形成一个类似于相机图像的“点云图像”。
点云图像和相机图像处于相同的坐标系下,因此可以很容易的通过神经网络进行融合

决策层的融合其实就是分别处理雷达和图像数据,将两种数据中得到的检测结果进行融合

在这个过程中,将来自不同传感器的结果进行匹配是非常关键的步骤

传统的方法一般直接通过物体检测的输出
(
比如类别,位置,大小等
)
来计算相似度,并进行匹配

[0004]智能网联汽车经过近年来的大力发展,目前已经可以实现特定场景和低速状态下的无人驾驶

对于实现全场景高速无人驾驶,目前还没有一个完善的解决方案

为了弥补单车智能的感知不足,提高智能车的感知范围,以及提升交通管控的感知手段,业内专家提出了车路协同的概念

[0005]车路协同,即智能车通过无线通信的方式,与路侧人





网互联通信,提升自车的感知范围和感知手段

通常,在车路协同的路侧端,一般会架设路侧感知系统

系统由多种感知传感器组成,如图像传感器

毫米波雷达传感器

激光雷达传感器等,通过多传感器融合感知的方式,获取道路上目标的位置

速度

航向角

类型等目标特征数据

目前,将不同传感器感知到的目标进行匹配融合存在精度不高,稳定性差的问题


技术实现思路

[0006]本专利技术的目的在于提供一种路侧感知系统的雷达与视觉目标匹配融合方法,以解决
技术介绍
中提出的现有技术中,存在数据层融合和特征层融合算法设计复杂度高

效率
较低以及现有的决策层融合是基于全局匹配融合,精度和稳定性较差的问题

[0007]为解决上述技术问题,本专利技术所采用的技术方案是:
[0008]一种路侧感知系统的雷达与视觉目标匹配融合方法,包括以下步骤:
[0009]步骤
S1
,将视觉检测结果和雷达检测结果进行时间以及空间对齐,使得不同传感器的检测结果时间同步;
[0010]步骤
S2
,判断目标是否在高置信度区域内,如果是,则视觉检测结果和雷达检测结果进行匹配,如果不是,则继续下一步判断;
[0011]步骤
S3
,判断视觉检测结果和雷达检测结果是否已匹配,如果是,则视觉检测结果和雷达检测结果融合;如果不是,则直接结束

[0012]根据上述技术方案,步骤
S2
中,视觉检测用于检测目标的检测框位置,分别代表检测框左上角的像素坐标和右下角的像素坐标;
[0013]雷达检测用于得到目标的经纬度坐标
[lon,lat],通过坐标系转换矩阵
TransformMatrix
变换为像素坐标转换公式如下:
[0014][0015]其中,坐标系转换矩阵
TransformMatrix
通过对雷达和相机进行联合标定得出;具体地,采集若干组像素

经纬度匹配对,然后通过几何变换拟合得出坐标系转换矩阵

[0016]根据上述技术方案,几何变换拟合得出坐标系转换矩阵具体为:
[0017]对于任意一个采集的经纬度坐标
[lon,lat],使用一个
2*2
矩阵来变换到另一个向量空间,即像素坐标通过采集像素

经纬度匹配对,计算出两个坐标系的转换矩阵,如下式所示:
[0018][0019]将矩阵形式写成表达式形式,如下式所示:
[0020][0021][0022]其中,
a,b,c,d

TransformMatrix
需要求得的4个矩阵值,4组像素

经纬度匹配对即可求出所有的值

采用更多的像素

经纬度匹配对可以与真实的转换矩阵更加接近

这样就可以求得坐标系转换矩阵

[0023]根据上述技术方案,根据步骤
S2
中检测得到的像素坐标,计算视觉检测框的中心像素坐标:
[0024][0025][0026]式中,
l
x
为检测框左上角
x
坐标,
r
x
为检测框右下角
x
坐标,
l
y
为检测框左上角
y
坐标,
r
y
为检测框右下角
y
坐标;
[0027]然后计算视觉检测框中心像素坐标与雷达像素坐标的欧式距离
L
,如本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.
一种路侧感知系统的雷达与视觉目标匹配融合方法,其特征在于:包括以下步骤:步骤
S1
,将视觉检测结果和雷达检测结果进行时间以及空间对齐,使得不同传感器的检测结果时间同步;步骤
S2
,判断目标是否在高置信度区域内,如果是,则视觉检测结果和雷达检测结果进行匹配,如果不是,则继续下一步判断;步骤
S3
,判断视觉检测结果和雷达检测结果是否已匹配,如果是,则视觉检测结果和雷达检测结果融合;如果不是,则直接结束
。2.
根据权利要求1所述的一种路侧感知系统的雷达与视觉目标匹配融合方法,其特征在于:步骤
S2
中,视觉检测用于检测目标的检测框位置,分别代表检测框左上角的像素坐标和右下角的像素坐标;雷达检测用于得到目标的经纬度坐标
[lon,lat]
,通过坐标系转换矩阵
TransformMatrix
变换为像素坐标转换公式如下:其中,坐标系转换矩阵
TransformMatrix
通过对雷达和相机进行联合标定得出;具体地,采集若干组像素

经纬度匹配对,然后通过几何变换拟合得出坐标系转换矩阵
。3.
根据权利要求2所述的一种路侧感知系统的雷达与视觉目标匹配融合方法,其特征在于:几何变换拟合得出坐标系转换矩阵具体为:对于任意一个采集的经纬度坐标
[lon,lat]
,使用一个
2*2
矩阵来变换到另一个向量空间,即像素坐标通过采集像素

经纬度匹配对,计算出两个坐标系的转换矩阵,如下式所示:将矩阵形式写成表达式形式,如下式所示:将矩阵形式写成表达式形式,如下式所示:其中,
a,b,c,d

TransformMatrix
需要求得的4个矩阵值,4组像素

经纬度匹配对即可求出所有的值

采用更多的像素

...

【专利技术属性】
技术研发人员:肖育豪刘维维封钦柱司宇
申请(专利权)人:四川天府新区北理工创新装备研究院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1