一种激光雷达数据下三维停车视距的检测方法技术

技术编号:36692924 阅读:26 留言:0更新日期:2023-02-27 20:02
本发明专利技术公开了一种激光雷达数据下三维停车视距的检测方法。因经典视距检验缺少自动化检测方法,而且视距值较多来自规划设计值。本方法基于实际道路场景采集的激光雷达点云数据,利用PointNet++将城市道路场景点云自动分类并赋予属性标签。其次,创新延伸横向范围的椭球体视野模型框选目标物点云,利用特征值计算与对比算法目的性抽稀点云,提升整体模型算法的运行效率。随后,纳入速度和路面条件变化,按视点变化依次检验停车视距是否满足规范要求,并输出三维停车视距检验值与遮挡视线的点云,实现全路段三维停车视距检测。本发明专利技术有效解决了实际道路场景中停车视距现状不清楚的问题,实现了对城市道路视距现状的定量化和精细化检验。细化检验。细化检验。

【技术实现步骤摘要】
一种激光雷达数据下三维停车视距的检测方法


[0001]本专利技术涉及一种激光雷达数据下三维停车视距的检测方法,属于交通运输工程领域。

技术介绍

[0002]停车视距是保障驾驶人遇到前方障碍物后,在短时间内做出正确认知和决策所需的最短行车距离,道路设计中停车视距较多依据平纵线形进行二维检验。随着路侧植被的枝条不断向道路内侧生长、交通标志等设施增加,作为空间实体的道路,其三维特性愈发重要。真实道路场景下,驾驶速度和路面条件(冰、雪等)的变化,均会导致有效视距不足。因此,开展常见的城市道路三维停车视距检验与安全评估,对道路安全驾驶预警和智能维养有重要的理论及应用价值。
[0003]采用移动扫描车和地面三维激光扫描仪获取的激光雷达点云数据,为复现道路场景提供了厘米级密度和厘米级精度的点云数据,可用来检验实际道路视距情况。早期的深度学习网络需要通过三维体素或者二维栅格操作将无序点云转化成规则表达方式,然后送入深度学习网络。PointNet的提出,实现了端到端的点云数据分类和分割。然而其只考虑点云的全局特征而忽略局部特征,随之提出的结合局部和全局特征的PointNet++网络,能有效提高了其分类性能,并在道路信息分类提取中得到了较好验证,但在三维视距研究中较少采用深度学习网络识别障碍物。随后,基于点云场景建立三维视距检验模型中,需框选合理的视野,全面捕获前方车道和路侧地物信息(树木、标志牌和建筑等)。其中有以圆锥的形式利用人眼为顶点构建圆形视野范围,但可能会忽视路侧植被向内侧生长引起的遮挡。为提高视距测算与识别效率,利用均匀抽稀降低点云密度,易丢失重要地物特征点。利用内部形状描述子算法通过点云间邻域关系、点云协方差矩阵及矩阵的特征值间关系,实现数据快速压缩并保留场景内主要特征点。JTG B05—2015《公路项目安全性评价规范》提出应对实地驾驶情况下的停车视距开展评价。因此,本专利技术提出一种激光雷达点云环境下的停车视距自动检测方法。
[0004]本专利技术对激光雷达点云环境下检测停车视距方法进行了详细说明。利用PointNet++将道路场景点云自动分类并赋予属性标签,解决因点云缺少直接地物属性信息导致的视距障碍物类别未知的问题;创建椭球视域模型根据道路参数自动框选视域,通过点云特征值筛选主要地物设施的特征点,提升数据运算效率;考虑速度和路面条件变化,按视点轨迹依次检验停车视距,输出三维视距检测结果,判断停车视距现状是否满足规范要求,为道路的安全性评价提供定量化检测结果。

技术实现思路

[0005]本专利技术所采用的技术方案是提出一种激光雷达数据下三维停车视距的检测方法,包括以下步骤:
[0006]步骤1:利用PointNet++自动分类道路场景点云。
PointNet++网络结构主要包括多层次特征学习模块、分类与分割模块。多层次特征学习由多个Set Abstraction模块构成,点云以N
×
(d+C)形式输入(N为输入点的个数,d为点的坐标维度,C为特征维度),其中每个模块的采样层主要通过迭代最远点采样算法构建质心集,组合层根据质心集将点云分类为多个局部点集,以质心点为圆心采用球形采样法后输出局部点云。加入PointNet层学习每个局部区域点云的全局特征。最后将点集映射至初始结构,并输出地物类别标签,该结果用于后续障碍物类别的直接判定与可视化呈现。
[0007]步骤2:构建实景道路下横轴延伸的椭球视野度模型,在点云场景中自动模拟驾驶员视点范围。
[0008]利用椭球体的数学几何模型构建出延申横轴的视野,将视野中点云与视点连线构建新型视锥体,以达到改进原视锥的视野模型的目的,使视野框选既兼顾道路前方,又有路侧环境即为对应的观察点应该观测到的目标物点云具体模型创建方法如下:
[0009]参考《公路路线设计规范》中规定的视点位置,沿车道中心线固定椭球视域模型的中心点。模型内含有的任一点坐标(x
o
,y
o
,z
o
)为均满足式椭球体的视野框选的数学模型公式:
[0010][0011]式中,a与b分别为沿x和y轴的椭球体赤道半径,m;c为沿z轴的椭球体极半径,m。所得到的视域点云数据集由地面点云与非地面点云组成。
[0012]步骤3:为了提高测算效率且不丢失主要特征点,对视野内点云进行抽稀,仅保留重要特征点。
[0013]具体流程为:首先对点云中的每个点m
t
建立局部坐标系;利用KD树确定每个以点m
t
为中心、通过邻域半径r搜索所有邻域点m
u
,接着结合城市道路的特点,如下式计算权值ω
tu

[0014][0015]得到权值结果ω
tu
后计算m
t
的协方差矩阵cov(m
t
):
[0016]其次,对每个点m
t
的协方差矩阵进一步计算其对应的的特征值,将特征值从大到小排列顺序,取前三个特征值通过数量关系判定特征点,满足公式的所有点组成视域内关键地物特征点云集。
[0017]根据多次实验测试选定阈值ε1=0.8、ε2=0.4为最佳(通常不超过1),
[0018]步骤4:沿行车轨迹,改变停车视距相关变量,依次测算每视点对应路段的三维停车视距检验值,判断实际停车视距值是否满足对应规范要求。
[0019]参考《规范》中的停车视距S
v
计算公式:
[0020][0021]式中:V为运行速度,km/h;T为驾驶员反应时间,s;K为制动系数(一般取1.3);f为路面与轮胎间的摩擦阻力系数(简称摩阻系数)。随路面条件不同而变化,选用干燥、潮湿、
泥泞和冰滑四种路面条件;i为路段纵坡度(%);S
c
为安全距离,m;S
v
为停车视距规范值,m。
[0022]沿行车轨迹,依次测算每视点对应路段的三维停车视距检验值:
[0023](1)输入视域内关键地物特征点云集与视点坐标;(2)视点到各视域特征点之间连线,并计算欧几里得距离;(3)依次判断是否有环境点云落于视点与特征点的连线上:a)若是,则视线受阻,输出具有类别标签的遮挡点云、记录最小视线距离为停车视距检验值;b)若否,则视线通畅,记录最大视距值为停车视距检验值;(4)循环至下一个视点,依次重复以上步骤,直至全路段测试完成。对停车视距中行车速度与摩阻系数(干燥、潮湿、泥泞与冰滑)进行改变,计算对应的停车视距值,对比点云场景下检验值判断停车是否是否满足规范要求。
[0024]本专利技术的有益成果:
[0025]本专利技术提出了一种激光雷达数据下三维停车视距检测方法。利用城市道路场景的自动分类结果,搭建的椭球视域模型顾及了路侧植被向内侧生长引起的遮挡,视域范围内特征点提取方法大大提高了运算效率,在点云环境中实现了全路段三维停车视距的自动检测和视距障碍的自动感知,有效解决了道路视距现状不清楚及风险点位不明确的问题,精准刻本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种激光雷达数据下三维停车视距的检测方法,其特征在于,包括以下步骤:步骤1:利用PointNet++网络自动分类道路场景点云;PointNet++网络结构包括多层次特征学习模块、分类与分割模块;多层次特征学习由多个Set Abstraction模块构成,点云以N
×
(d+C)形式输入,其中N为输入点的个数,d为点的坐标维度,C为特征维度;其中每个模块的采样层主要通过迭代最远点采样算法构建质心集,组合层根据质心集将点云分类为多个局部点集,以质心点为圆心采用球形采样法后输出局部点云;加入PointNet层学习每个局部区域点云的全局特征;最后将点集映射至初始结构,并输出地物类别标签,该结果用于后续障碍物类别的直接判定与可视化呈现;步骤2:构建实景道路下横轴延伸的椭球视野度模型,在点云场景中自动模拟驾驶员视点范围;沿车道中心线固定椭球视域模型的中心点;模型内含有的任一点坐标(x
o
,y
o
,z
o
)为均满足式椭球体的视野框选的数学模型公式:式中,a与b分别为沿x和y轴的椭球体赤道半径,m;c为沿z轴的椭球体极半径,m;所得到的视域点云数据集由地面点云与非地面点云组成;步骤3:对视野内点云进行抽稀,仅保留重要特征点;具体流程为:首先对点云中的每个点m
t
建立局部坐标系;利用KD树确定每个以点m
t
为中心、通过邻域半径r搜索所有邻域点m
u
,接着结合城市道路的特点,如下式...

【专利技术属性】
技术研发人员:王金张子宜李浩许牛琦
申请(专利权)人:北京工业大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1