一种车底危险目标识别方法技术

技术编号:24011462 阅读:45 留言:0更新日期:2020-05-02 01:53
本发明专利技术为一种车底危险目标识别方法,该方法首先对来车进行车牌识别,并实时采集车底图像(目标图像),根据识别结果在车辆网络数据库中调取相应的车辆信息以及标准车底图像信息(标准图像),将目标图像和标准图像作为输入图像,利用改进的SURF算法提取特征点,然后使用基于方向和尺度约束的单向匹配策略寻找匹配点对。在此基础上,采用改进的减小迭代次数的RANSAC算法剔除错误匹配点对,并分段校正目标图像,再采用基于卷积的NCC算法分块匹配策略寻找危险目标位置,采用Yolov3网络预先调用危险目标网络数据库进行训练,最后对危险目标进行检测及识别。该方法速度快、精度高,能有效克服由于车速不均匀导致图像变形可能造成的漏检问题。

A recognition method of dangerous target under vehicle

【技术实现步骤摘要】
一种车底危险目标识别方法
本专利技术属于图像处理
,具体涉及一种车底危险目标识别方法。
技术介绍
近年来,各国利用车辆藏匿危险品、违禁品等高危物品的犯罪行为呈上升趋势,对人民的生命财产安全造成了严重威胁,因此对车辆的安全检查需引起进一步重视,而车辆检测中又以危险目标藏匿于车辆底盘时最难检测,故车底检测已成为安保领域研究的重点与难点。目前车底检测技术手段主要采用手持探镜及视觉检测等方式,并不具备自动比对功能。检测的关键是对目标进行特征提取,常见的特征有轮廓、边缘、特征点等。为提取和描述图像中的局部特征,DavidLowe提出一种尺度不变特征转换(Scale-invariantFeaturetransform,SIFT)视觉算法,具有较强的鲁棒性,但计算量大,效率低。而Yanke等提出PCA-SIFT算法对特征向量描述子降维,但效果不理想,且计算量仍较大。为此,Bay等人提出一种SURF(SpeededUpRobustFeatures,SURF)加速稳健特征算法,相比SIFT算法大幅提高了计算速度,但复杂环境下仍存在特征提取效率低、错误率高等不足,制约了车底危险目标检测及识别精度的提升。
技术实现思路
针对现有技术的不足,本专利技术拟解决的技术问题是,提出一种车底危险目标识别方法。首先对来车进行车牌识别,并实时采集车底图像(目标图像),根据识别结果在车辆网络数据库中调取相应的车辆信息以及标准车底图像信息(标准图像),将目标图像和标准图像作为输入图像,首先采用双边滤波器处理输入图像并进行一次小波变换,再将小波域中的低频图像作为输入并利用改进的SURF提取特征点,然后使用基于方向和尺度约束的单向匹配策略寻找匹配点对。在此基础上,采用改进的减小迭代次数的RANSAC(RandomSampleConsensus,RANSAC)算法剔除错误匹配点对,并分段校正目标图像,再采用基于卷积的NCC(NomalizedCrossCorrelationMethod,NCC)算法分块匹配策略寻找危险目标位置,采用Yolov3网络预先调用危险目标网络数据库进行训练,最后对危险目标进行检测及识别。本专利技术为解决上述技术问题采取的技术方案是:一种车底危险目标识别方法,该方法包括以下步骤:步骤1,构建包含车辆信息的车辆网络数据库及危险目标网络数据库,对来车进行车牌识别,并实时采集当前车辆的车底图像作为目标图像,然后根据车牌识别的结果在车辆网络数据库中调取相应的车辆信息以及相应车型的车底标准图像,将目标图像和标准图像作为输入图像;步骤2,将步骤1中的标准图像和目标图像采用双边滤波器进行预处理,达到保边去噪的效果;步骤3,对步骤2中经双边滤波之后的输入图像进行小波变换,将变换得到的低频图像作为新的输入图像;步骤4,在步骤3中的新的输入图像的基础上,用改进的SURF算法提取特征点,并使用基于方向和尺度约束的单向匹配策略寻找匹配点对;步骤5,采用改进的减小迭代次数的RANSAC算法剔除步骤4中的误匹配点对,保留正确的匹配点对;步骤6:将目标图像以车行进方向为正方向,均分为前后两段,分别记为图像1和图像2;在图像1和图像2中分别随机选取两对步骤5中保留的正确的匹配点对,即图像1中的两个特征点为A1(x1,y1)、B1(x2,y2),在标准图像中对应的匹配点分别为A2(x3,y3)、B2(x4,y4);通过求解线段的比例关系得到缩放比例,x方向的缩放为:y方向的缩放为:同理,确定图像2的x方向和y方向的缩放比,根据特征点的比例关系分别对图像1和图像2进行校正,然后再将校正后的图像1和图像2直接拼接,将图像1和图像2构成的目标图像缩放至标准图像近似大小,获得校正后的目标图像;步骤7:采用基于卷积的NCC算法分块匹配策略寻找危险目标的大致位置,并在经步骤6得到的校正后的目标图像中用红色线框进行标记;步骤8:采用Yolov3网络预先调用危险目标网络数据库进行训练,最后在步骤7中经红色线框标记的区域进行目标检测,并识别危险目标种类。与现有技术相比,本专利技术的有益效果是,本专利技术一种车底危险目标识别方法,对来车进行车牌识别,并实时采集当前车辆的车底图像(目标图像),根据识别的结果在车辆网络数据库中调取相应的车辆信息以及标准车底图像信息(标准图像),将目标图像和标准图像作为输入图像。针对车底图像尺寸过大,噪点过多的问题,首先采用双边滤波器处理输入图像并进行一次小波变换,再将小波域中的低频图像作为输入并利用改进的SURF提取特征点,然后使用基于方向和尺度约束的单向匹配策略寻找匹配点对,本申请中对SURF提取特征点选取更大的空间点数,显著提高了算法的速度及鲁棒性。在此基础上,采用改进的减小迭代次数的RANSAC算法剔除错误匹配点对,针对车速不均匀问题造成图像拉伸或者压缩问题分段校正目标图像,再采用基于卷积的NCC算法分块匹配策略寻找危险目标位置,并用线框标记。然后采用Yolov3网络预先调用危险目标网络数据库进行训练,最后在线框标记的区域中对危险目标进行识别,有效改善了直接在整张车底图像上采用深度学习进行目标检测耗时、及车辆行进过程中图像发生变形的问题。本专利技术通过将目标图像与标准图像进行比对,并通过双边滤波、改进的SURF算法、单向匹配、减少迭代次数的RANSAC算法、基于卷积的NCC分块匹配、Yolov3目标检测网络等操作成功检测出危险目标的位置及类别。解决了传统SURF算法匹配速度慢、匹配精度低、车速不均匀导致图像变形可能造成漏检的问题、Yolov3网络搜索面积大所导致的耗时大等问题。将该方法应用于车底图像,可以加快车底危险目标的识别效率。附图说明图1本专利技术车底危险目标识别方法流程图。图2尺度空间。图3滑动扇形窗口。图4特征描述子。图5车底图像坐标系。图6Yolov3网络。具体实施方式下面结合实施例及附图进一步解释本专利技术,但并不以此作为对本申请保护范围的限定。本专利技术一种车底危险目标识别方法,该方法包括以下步骤:步骤1,构建包含车辆信息的车辆网络数据库及危险目标网络数据库,对来车进行车牌识别,并采集目标图像,然后根据识别的结果在车辆网络数据库中调取相应的车辆信息以及标准图像,将目标图像和标准图像作为本方法的输入图像;步骤2,将步骤1中的标准图像和目标图像采用双边滤波器进行预处理,目的是达到保边去噪的效果。步骤3,对步骤2中经双边滤波之后的输入图像进行小波变换,将变换得到的低频图像作为新的输入图像;步骤4,在步骤3中的新的输入图像的基础上,用改进的SURF算法提取特征点,并使用基于方向和尺度约束的单向匹配策略寻找匹配点对;步骤5,采用改进的减小迭代次数的RANSAC算法剔除步骤4中的误匹配点对,保留正确的匹配点对;步骤6:将目标图像以车行进方向为正方向,均分为前后两段,分别记为图像1和图像2。在图像1和图像2中分别本文档来自技高网...

【技术保护点】
1.一种车底危险目标识别方法,该方法包括以下步骤:/n步骤1,构建包含车辆信息的车辆网络数据库及危险目标网络数据库,对来车进行车牌识别,并实时采集当前车辆的车底图像作为目标图像,然后根据车牌识别的结果在车底图像网络数据库中调取相应的车辆信息以及相应车型的车底标准图像,将目标图像和标准图像作为输入图像;/n步骤2,将步骤1中的标准图像和目标图像采用双边滤波器进行预处理,达到保边去噪的效果;/n步骤3,对步骤2中经双边滤波之后的输入图像进行小波变换,将变换得到的低频图像作为新的输入图像;/n步骤4,在步骤3中的新的输入图像的基础上,用改进的SURF算法提取特征点,并使用基于方向和尺度约束的单向匹配策略寻找匹配点对;/n步骤5,采用改进的减小迭代次数的RANSAC算法剔除步骤4中的误匹配点对,保留正确的匹配点对;/n步骤6:将目标图像以车行进方向为正方向,均分为前后两段,分别记为图像1和图像2;在图像1和图像2中分别随机选取两对步骤5中保留的正确的匹配点对,即图像1中的两个特征点为A

【技术特征摘要】
1.一种车底危险目标识别方法,该方法包括以下步骤:
步骤1,构建包含车辆信息的车辆网络数据库及危险目标网络数据库,对来车进行车牌识别,并实时采集当前车辆的车底图像作为目标图像,然后根据车牌识别的结果在车底图像网络数据库中调取相应的车辆信息以及相应车型的车底标准图像,将目标图像和标准图像作为输入图像;
步骤2,将步骤1中的标准图像和目标图像采用双边滤波器进行预处理,达到保边去噪的效果;
步骤3,对步骤2中经双边滤波之后的输入图像进行小波变换,将变换得到的低频图像作为新的输入图像;
步骤4,在步骤3中的新的输入图像的基础上,用改进的SURF算法提取特征点,并使用基于方向和尺度约束的单向匹配策略寻找匹配点对;
步骤5,采用改进的减小迭代次数的RANSAC算法剔除步骤4中的误匹配点对,保留正确的匹配点对;
步骤6:将目标图像以车行进方向为正方向,均分为前后两段,分别记为图像1和图像2;在图像1和图像2中分别随机选取两对步骤5中保留的正确的匹配点对,即图像1中的两个特征点为A1(x1,y1)、B1(x2,y2),在标准图像中对应的匹配点分别为A2(x3,y3)、B2(x4,y4);通过求解线段的比例关系得到缩放比例,x方向的缩放为:



y方向的缩放为:



同理,确定图像2的x方向和y方向的缩放比,根据特征点的比例关系分别对图像1和图像2进行校正,然后再将校正后的图像1和图像2直接拼接,将图像1和图像2构成的目标图像缩放至标准图像近似大小,获得校正后的目标图像;
步骤7:采用基于卷积的NCC算法分块匹配策略寻找危险目标的大致位置,并在经步骤6得到的校正后的目标图像中用红色线框进行标记;
步骤8:采用...

【专利技术属性】
技术研发人员:高春艳吕盛璠赵文辉李培卓
申请(专利权)人:河北工业大学
类型:发明
国别省市:天津;12

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1