基于YOLOv3网络的自动驾驶中交通标识检测方法技术

技术编号:20546578 阅读:23 留言:0更新日期:2019-03-09 19:29
基于YOLOv3网络的自动驾驶中交通标识检测方法,它属于交通标识检测领域。本发明专利技术解决了现有的YOLOv3网络目标检测算法存在的检测精度不高,以及检测速度不能满足实时性要求的问题。本发明专利技术提出改进的损失函数,从而降低大目标误差对小目标检测效果的影响,提升了小尺寸目标的检测准确率;提出改进的激活函数,保留了负值同时减少了传播到下一层的变化和信息,增强了算法对噪声的鲁棒性;通过K‑means算法对交通标识数据集中的真实边框进行聚类,实现目标边框位置的预取,加速网络的收敛。本发明专利技术的交通标识检测模型在测试集上的检测精度mAP达到92.88%,检测速度达到35FPS,完全满足实时性的要求。本发明专利技术可以应用于交通标识检测领域用。

Traffic Sign Detection Method in Automatic Driving Based on YOLOv3 Network

The traffic sign detection method in automatic driving based on YOLOv3 network belongs to the field of traffic sign detection. The invention solves the problems that the existing YOLOv3 network target detection algorithm has low detection accuracy and detection speed can not meet the real-time requirements. An improved loss function is proposed to reduce the effect of large target error on small target detection and improve the detection accuracy of small target; an improved activation function is proposed to retain negative values while reducing the changes and information propagated to the next layer, thus enhancing the robustness of the algorithm to noise; and a real frame in traffic sign data set is obtained by K_means algorithm. Clustering is carried out to achieve the prefetching of the target border position and accelerate the convergence of the network. The traffic sign detection model of the invention achieves the detection accuracy of 92.88% on the test set and the detection speed of 35 FPS, which fully meets the real-time requirements. The invention can be applied in the field of traffic sign detection.

【技术实现步骤摘要】
基于YOLOv3网络的自动驾驶中交通标识检测方法
本专利技术属于交通标识检测领域,具体涉及一种自动驾驶中交通标识检测方法。
技术介绍
目标检测是自动驾驶领域中的一个重要研究方向。其主要检测的目标分为两类:静止目标以及运动目标。静止目标如交通灯、交通标识、车道、障碍物等;运动目标如车辆、行人、非机动车等。其中交通标识检测为无人驾驶汽车在行驶过程中提供丰富而且必要的导航信息,是具有重要意义的基础性工作。传统的目标检测方法主要分为如下几个步骤:预处理,选择候选区域,提取目标特征和特征分类。常用的特征如SIFT(scale-invariantfeaturetransform)、HOG(histogramoforientedgradient)、Haar。常用的分类器如:SVM(supportvectormachine)、RF(randomforest)、Adaboost等。此类方法对于目标特征的设计要求较高,若设计的特征不好,即使使用最好的分类器,最终模型的准确率也较低。同时特征具有很强的针对性,只能检测某一类目标,泛化能力差。且提取的特征均是目标的低层特征(low-levelfeatures),无法表达其真正的高层语义特征。深度学习在近些年的计算机视觉领域取得了丰富的研究成果,特别是在目标检测领域。使用卷积神经网络(convolutionneuralnetwork)对目标特征进行提取可以大大降低人工提取特征的众多弊端。R-CNN是Girshick等人于2014年提出的基于卷积神经网络的目标检测模型。首先需要通过选择性搜索算法从整张图片中提取出大量的候选区域,接着将其调整成固定尺寸后输入卷积神经网络中进行特征提取,最后使用SVM分类器进行分类。R-CNN的mAP(meanAveragePrecision)达到了62.4%,由于其算法复杂度较高故检测所花费的时间也较长。针对此问题,研究人员提出了众多改进的基于目标候选区域的算法。SPPnet[8]它通过在最后一个卷积层后设计金字塔池化层(pyramidpoolinglayer),通过金字塔池化层,将特征图像固定到要求的尺寸。FastR-CNN,提出了多任务损失函数(multi-taskloss),在传统的损失函数后边加入目标定位的损失,用来修正位置信息。FasterR-CNN通过在最后卷积层输出的特征图像上加入滑动窗口(slidingwindow),滑动窗口划过的位置,以窗口中心为中心(锚点)(anchor),做出不同尺寸的锚点框,映射到原始图片,成为候选区域。R-FCN采用FCN(FullyConvolutionalNetworks)网络结构,并用专门的卷积层构建位置敏感分数地图(position-sensitivescoremaps)。研究人员同样提出了许多基于回归(regression)方法的目标检测算法如:YOLO(youonlylookonce)、SSD(singleshotmultiboxdetector)、YOLOv2、YOLOv3等。其中YOLOv3是目前最优秀的目标检测算法之一,其借鉴了之前研究人员的众多成果。当输入尺寸为416×416时,其检测精度可以达到55.3%,但其检测时间却只需29ms。虽然现有的YOLOv3目标检测算法在目标检测方面取得了一定的成就,但其检测精度仍然不高,检测速度也不能满足实时性的要求。
技术实现思路
本专利技术的目的是为解决现有的YOLOv3网络目标检测算法存在的检测精度不高,以及检测速度不能满足实时性要求的问题。本专利技术为解决上述技术问题采取的技术方案是:基于YOLOv3网络的自动驾驶中交通标识检测方法,该方法包括以下步骤:步骤一、基于GTSDB数据集制作带有交通标识类目标标注的训练集数据和测试集数据;步骤二、对训练集数据中标注的真实目标边框进行聚类,采用面积交并比IOU作为评级指标来获得训练集数据中预测的交通标识类目标的初始候选目标边框,将初始候选目标边框作为YOLOv3网络的初始网络参数;调取YOLOv3网络的初始网络参数,并将训练集数据输入YOLOv3网络进行训练,直至训练集数据输出的损失函数值小于等于阈值Q1或达到设置的最大迭代次数N时停止训练,得到训练好的YOLOv3网络;步骤三、将测试集数据输入训练好的YOLOv3网络,若测试集数据对应的检测精度大于等于精度阈值Q2,则将训练好的YOLOv3网络作为最终的YOLOv3网络;若测试集数据对应的检测精度小于精度阈值Q2,则继续训练步骤二得到的训练好的YOLOv3网络,直至测试集数据对应的检测精度大于等于精度阈值Q2,将此时的YOLOv3网络作为最终的YOLOv3网络;将采集的自动驾驶中包含有交通标识的图像输入最终的YOLOv3网络,以进行交通标识的检测。本专利技术的有益效果是:本专利技术提供了基于YOLOv3网络的自动驾驶中交通标识检测方法,本专利技术提出改进的损失函数,通过对检测目标宽高的损失部分进行加权,将真实目标边框的尺寸纳入考虑,从而降低大目标误差对小目标检测效果的影响,提升了小尺寸目标的检测准确率;通过提出一种改进的激活函数,当x为0或负值时采用Softplus向下平移log2个单位,保留了负值同时减少了传播到下一层的变化和信息,增强了算法对噪声的鲁棒性;最后,通过K-means算法对真实边框进行聚类,实现目标边框位置的预取,加速网络的收敛。结果表明,本专利技术提出的交通标识检测模型在测试集上的检测精度有了较大提升,mAP达到92.88%,检测速度达到35FPS,完全满足实时性的要求,训练过程中收敛速度提升了约66.67%。附图说明图1为当前常用的激活函数ReLU的曲线图;x代表输入,y代表输出;图2为激活函数Leaky-ReLU(LeakyRectifiedLinearUnit)的曲线图;图3为本专利技术应用的激活函数Softplus-ReLU的曲线图;图4为本专利技术的K-means聚类初始候选边框对模型性能的影响的示意图;其中:灰色矩形代表原始方法的数值,黑色矩形代表本专利技术K-means聚类方法的数值;图5为本专利技术方法(K-means聚类)与未使用聚类方法训练的loss(损失函数)曲线对比图;图6为传统YOLOv3的检测效果与本专利技术采用改进损失函数的检测效果的对比图;具体实施方式具体实施方式一:本实施方式所述的基于YOLOv3网络的自动驾驶中交通标识检测方法,该方法具体包括以下步骤:步骤一、基于GTSDB数据集制作带有交通标识类目标标注的训练集数据和测试集数据;步骤二、对训练集数据中标注的真实目标边框进行聚类,采用面积交并比IOU作为评级指标来获得训练集数据中预测的交通标识类目标的初始候选目标边框,将初始候选目标边框作为YOLOv3网络的初始网络参数;(这样做的好处是可以加速训练过程的收敛速度);调取YOLOv3网络的初始网络参数,并将训练集数据输入YOLOv3网络进行训练,直至训练集数据输出的损失函数值小于等于阈值Q1或达到设置的最大迭代次数N时停止训练,得到训练好的YOLOv3网络;步骤三、将测试集数据输入训练好的YOLOv3网络,若测试集数据对应的检测精度(mAP)大于等于精度阈值Q2,则将训练好的YOLOv3网络作为最终的YOLOv3网络;若测试集数据对应的本文档来自技高网
...

【技术保护点】
1.基于YOLOv3网络的自动驾驶中交通标识检测方法,其特征在于,该方法包括以下步骤:步骤一、基于GTSDB数据集制作带有交通标识类目标标注的训练集数据和测试集数据;步骤二、对训练集数据中标注的真实目标边框进行聚类,采用面积交并比IOU作为评级指标来获得训练集数据中预测的交通标识类目标的初始候选目标边框,将初始候选目标边框作为YOLOv3网络的初始网络参数;调取YOLOv3网络的初始网络参数,并将训练集数据输入YOLOv3网络进行训练,直至训练集数据输出的损失函数值小于等于阈值Q1或达到设置的最大迭代次数N时停止训练,得到训练好的YOLOv3网络;步骤三、将测试集数据输入训练好的YOLOv3网络,若测试集数据对应的检测精度大于等于精度阈值Q2,则将训练好的YOLOv3网络作为最终的YOLOv3网络;若测试集数据对应的检测精度小于精度阈值Q2,则继续训练步骤二得到的训练好的YOLOv3网络,直至测试集数据对应的检测精度大于等于精度阈值Q2,将此时的YOLOv3网络作为最终的YOLOv3网络;将采集的自动驾驶中包含有交通标识的图像输入最终的YOLOv3网络,以进行交通标识的检测。

【技术特征摘要】
1.基于YOLOv3网络的自动驾驶中交通标识检测方法,其特征在于,该方法包括以下步骤:步骤一、基于GTSDB数据集制作带有交通标识类目标标注的训练集数据和测试集数据;步骤二、对训练集数据中标注的真实目标边框进行聚类,采用面积交并比IOU作为评级指标来获得训练集数据中预测的交通标识类目标的初始候选目标边框,将初始候选目标边框作为YOLOv3网络的初始网络参数;调取YOLOv3网络的初始网络参数,并将训练集数据输入YOLOv3网络进行训练,直至训练集数据输出的损失函数值小于等于阈值Q1或达到设置的最大迭代次数N时停止训练,得到训练好的YOLOv3网络;步骤三、将测试集数据输入训练好的YOLOv3网络,若测试集数据对应的检测精度大于等于精度阈值Q2,则将训练好的YOLOv3网络作为最终的YOLOv3网络;若测试集数据对应的检测精度小于精度阈值Q2,则继续训练步骤二得到的训练好的YOLOv3网络,直至测试集数据对应的检测精度大于等于精度阈值Q2,将此时的YOLOv3网络作为最终的YOLOv3网络;将采集的自动驾驶中包含有交通标识的图像输入最终的YOLOv3网络,以进行交通标识的检测。2.根据权利要求1所述的基于YOLOv3网络的自动驾驶中交通标识检测方法,其特征在于,所述步骤一的具体过程为:所述GTSDB数据集共包含M张图像,对M张图像中的交通标识类目标进行标注后,将标注后的M张图像随机分成训练集和测试集两个部分。3.根据权利要求2所述的基于YOLOv3网络的自动驾驶中交通标识检测方法,其特征在于,所述训练集和测试集的数据量比为8:1。4.根据权利要求3所述的基于YOLOv3网络的自动驾驶中交通标识检测方法,其特征在于,对训练集数据中标注的真实目标边框进行聚类,采用面积交并比IOU作为评级指标来获得训练集数据中预测的交通标识类目标的初始候选目标边框,其具体过程为:采用K-means算法对训练集数据的真实目标边框进行聚类,采用预测的候选目标边框与真实目标边框的面积交并比IOU作为评级指标,即当面积交并比IOU达到不低于0.5时,将此时预测的候选目标边框作为初始候选目标边框;面积交并比IOU表示如下:其中:boxpred代表预测的候选目标边框的面积,boxtruth代表真实目标边框的面积;则所有真实目标边框与初始候选目标边框的距离Dis(box,centroid)表示为:Dis(box,centroid)=1-IOU(box,centroid)其中:Dis(box,centroid)代表训练集数据中所有真实目标边框与初始候选目标边框的距离...

【专利技术属性】
技术研发人员:王超
申请(专利权)人:北京信息科技大学
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1