高精地图中空中环境要素的构建方法、系统及存储介质技术方案

技术编号:35993963 阅读:11 留言:0更新日期:2022-12-17 23:09
本发明专利技术公开了一种高精地图中空中环境要素的构建方法、系统及存储介质,包括:获取目标视频及视频各图像帧对应的位姿;对目标视频进行目标检测跟踪,其中,检测跟踪的目标为空中标识牌或红绿灯;从目标视频中选出目标元素的共视关键帧;提取目标元素的所有共视关键帧中目标区域内的特征点;对任意两共视关键帧中的特征点进行匹配,得到匹配点对;对匹配点对进行三角化计算,得到稀疏点云;对不同共视关键帧之间得到的稀疏点云进行融合筛选;关联目标检测跟踪结果,生成该目标视频对应的高精地图要素。本发明专利技术能够有效减少高精地图构建的计算资源消耗和硬件依赖需求,降低了高精地图的构建成本,提高了高精地图的构建效率。提高了高精地图的构建效率。提高了高精地图的构建效率。

【技术实现步骤摘要】
高精地图中空中环境要素的构建方法、系统及存储介质


[0001]本专利技术属于高精地图
,具体涉及一种高精地图中空中环境要素的构建方法、系统及存储介质。

技术介绍

[0002]在智能驾驶中,高精地图作为一种提供元素更加详细、属性更加丰富、维度更高、更新频率更快的高精度、高丰富度、高维度、高新鲜度的电子地图,可以辅助实现更可靠的融合高精定位功能,提供超视距环境感知能力以及提供车道级别最优路径规划。
[0003]空中标识牌或红绿灯作为高精地图中的重要环境特征,是高精地图在智能驾驶中发挥最大作用所必不可少的要素。
[0004]如专利文献CN111652179A公开的一种融合视频数据和激光雷达点云数据的高精地图生产方法,该方法将激光雷达点云通过投影的方法与二维语义分割图像进行关联,剔除所述二维图像的环境中动态要素后,获得静态要素并进行语义信息优化,最终输出包括地面标识、杆状物标识、空中标志牌或红绿灯高精度地图。该方法需要融合激光雷达点云和视频图像数据,同时还需要对视频帧进行语义分割,会造成计算资源消耗过大的问题。
[0005]又如专利文献为CN113326769A公开了一种基于车载视频生成高精地图的方法,该方法使用目标视频不同帧的特征点进行位姿估计,然后在位姿估计的基础上生成稠密点云,之后将稠密点云投影到二维语义图像上提取目标的语义信息,最后利用带语义信息的点云生成底图元素,从而生成高精地图。该方法需要使用语义分割图像作为输入,且需要生成稠密点云,计算资源需求较大。
[0006]综上所述,现有高精度地图构建技术在构建空中标识牌或红绿灯要素时存在以下问题:
[0007]1、需要对视频数据先进行语义分割,计算资源消耗较大,不利于实时低耗输出高精地图的目标;
[0008]2、需要处理从激光雷达采集或密集特征点匹配生成的密集点云,对数据处理平台的硬件资源要求较高。
[0009]因此,有必要开发一种新的高精地图中空中环境要素的构建方法、系统及存储介质。

技术实现思路

[0010]本专利技术的目的在于提供一种高精地图中空中环境要素的构建方法、系统及存储介质,能有效减少高精地图构建的计算资源消耗和硬件依赖需求,降低高精地图构建成本,提高高精地图构建效率。
[0011]第一方面,本专利技术所述的一种高精地图中空中环境要素的构建方法,包括以下步骤:
[0012]获取目标视频及视频各图像帧对应的位姿;
[0013]对目标视频进行目标检测跟踪,其中,检测跟踪的目标为空中标识牌或红绿灯;
[0014]从目标视频中选出目标元素的共视关键帧;
[0015]提取目标元素的所有共视关键帧中目标区域内的特征点;
[0016]对任意两共视关键帧中的特征点进行匹配,得到匹配点对;
[0017]对匹配点对进行三角化计算,得到稀疏点云;
[0018]对不同共视关键帧之间得到的稀疏点云进行融合筛选;
[0019]关联目标检测跟踪结果,生成该目标视频对应的高精地图要素。
[0020]可选地,所述图像帧与位姿之间的对应是通过视频原始数据和位姿原始数据采集的时间戳进行关联。
[0021]可选地,所述目标检测跟踪使用基于Yolov5的深度学习框架对目标视频中空中标识牌或红绿灯要素进行检测和跟踪,检测输出结果为要素类别和目标元素的最小矩形包围盒,跟踪输出结果为全局唯一标识ID。
[0022]可选地,所述选出目标元素的共视关键帧过程中,两相邻关键帧之间的对应位姿的空间距离大于预设距离阈值,且检测目标的最小矩形包围盒大于预设尺寸。
[0023]可选地,提取共视关键帧中目标区域内的特征点时,以检测目标的最小矩形包围盒作为掩膜,且使用FAST关键点作为特征点。
[0024]可选地,所述任意两共视关键帧中的特征点进行匹配时,采用基于对极约束的方法,选取去均值归一化互相关系数值最大的点对作为匹配结果输出。
[0025]可选地,对不同共视关键帧之间得到的稀疏点云进行融合筛选时,保留特征点共视帧数量大于预设数量阈值,且在各帧中重投影误差最小的特征点对应的三维点。
[0026]可选地,所述关联目标检测跟踪结果,生成该目标视频对应的高精地图要素,具体为:
[0027]将三维点与目标检测跟踪的目标类型、唯一标识ID进行关联,得到带语义信息的三维点,生成该目标视频对应的高精地图要素。
[0028]第二方面,本专利技术所述的一种高精地图中空中环境要素的构建系统,包括存储器和控制器,所述存储器内存储有计算机可读程序,所述计算机可读程序被控制器调用时能执行如本专利技术所述的高精地图中空中环境要素的构建方法的步骤。
[0029]第三方面,本专利技术所述的一种存储介质,其内存储有计算机可读程序,所述计算机可读程序被调用时能执行如本专利技术所述的高精地图中空中环境要素的构建方法的步骤。
[0030]本专利技术具有以下优点:本专利技术所述的一种高精地图中空中环境要素的构建方法,能够有效减少高精地图构建的计算资源消耗和硬件依赖需求,降低了高精地图构建成本,提高了高精地图的构建效率。
附图说明
[0031]图1为本实施例中高精地图中空中环境要素的构建方法的流程图。
具体实施方式
[0032]以下将结合附图对本专利技术进行详细的说明。
[0033]如图1所示,本实施例中,一种高精地图中空中环境要素的构建方法,包括以下步
骤:
[0034]S101.获取目标视频及视频各图像帧对应的位姿,其中,图像帧与位姿之间的对应是通过视频原始数据和位姿原始数据采集的时间戳进行关联。
[0035]S102.对目标视频进行目标检测跟踪,其中,检测跟踪的目标为空中标识牌或红绿灯;
[0036]对目标视频进行目标检测跟踪具体为:使用基于Yolov5的深度学习框架对目标视频中空中标识牌或红绿灯要素进行检测和跟踪,检测输出结果为要素类别和目标元素的最小矩形包围盒,跟踪输出结果为全局唯一标识ID。
[0037]S103.从目标视频中选出目标元素的共视关键帧。在选出目标元素的共视关键帧过程中,两相邻关键帧之间的对应位姿的空间距离大于预设距离阈值,且检测目标的最小矩形包围盒大于预设尺寸。具体为:
[0038]本实施例中,根据两相邻关键帧之间的对应位姿的空间距离大于2米为条件从所有视频帧中选出备选关键帧,备选关键帧中第一次出现某一目标元素时,开始进行共视关键帧选取,具体为保留目标元素的最小矩形包围盒的宽、高均大于15像素的备选关键帧作为关键帧,超过连续5个备选关键帧未选取为该某一目标元素的共视关键帧时,结束共视关键帧选取。
[0039]S104.提取目标元素的所有共视关键帧中目标区域内的特征点。在提取共视关键帧中目标区域内的特征点时,以目标元素的最小矩形包围盒作为掩膜,提取FAST关键点作为特征点,FAST关键点提取计算中,阈值参数设置为20%,超过阈值的点数设置为12。
[0040]S105本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种高精地图中空中环境要素的构建方法,其特征在于,包括以下步骤:获取目标视频及视频各图像帧对应的位姿;对目标视频进行目标检测跟踪,其中,检测跟踪的目标为空中标识牌或红绿灯;从目标视频中选出目标元素的共视关键帧;提取目标元素的所有共视关键帧中目标区域内的特征点;对任意两共视关键帧中的特征点进行匹配,得到匹配点对;对匹配点对进行三角化计算,得到稀疏点云;对不同共视关键帧之间得到的稀疏点云进行融合筛选;关联目标检测跟踪结果,生成该目标视频对应的高精地图要素。2.根据权利要求1所述的高精地图中空中环境要素的构建方法,其特征在于:所述图像帧与位姿之间的对应是通过视频原始数据和位姿原始数据采集的时间戳进行关联。3.根据权利要求2所述的高精地图中空中环境要素的构建方法,其特征在于:所述目标检测跟踪使用基于Yolov5的深度学习框架对目标视频中空中标识牌或红绿灯要素进行检测和跟踪,检测输出结果为要素类别和目标元素的最小矩形包围盒,跟踪输出结果为全局唯一标识ID。4.根据权利要求3所述的高精地图中空中环境要素的构建方法,其特征在于:所述选出目标元素的共视关键帧过程中,两相邻关键帧之间的对应位姿的空间距离大于预设距离阈值,且检测目标的最小矩形包围盒大于预设尺寸。5.根据权利要求4所述的高精地图中空中环境要素的构建方法,其特征在于:提取共...

【专利技术属性】
技术研发人员:张辉松王立
申请(专利权)人:重庆长安汽车股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1