【技术实现步骤摘要】
一种基于多任务深度卷积神经网络的车辆颜色识别系统
本专利技术涉及人工智能、数字图像处理、卷积神经网络和计算机视觉在车辆颜色识别方面的应用,属于智能交通领域。
技术介绍
颜色是车辆的一种重要外观特征。现实世界中,由于存在光源色温、光线强弱、拍摄角度、摄像机的设置等诸多不确定因素的影响,使得最终获取的结果同理想条件相比,车辆颜色会存在一定程度的偏色;现有已公开的车辆颜色识别方法对于车辆姿态变化和车辆所处的光照环境变化非常敏感,当车辆所处的光照环境变化时,现有的车辆颜色识别方法的颜色识别准确度急剧下降,不能准确识别车辆颜色。申请号为200810041097.5的中国专利申请公开的“特征区域的定位方法、车身深浅色与车身颜色的识别方法”提供了一种车辆颜色识别方法、车辆颜色深浅度的识别方法。包括如下步骤:1、该专利根据图像的纹理特征与结构特征,构建复杂的能量函数,搜索能量最大的点;2、根据能量最大的点定位车辆颜色以及车辆颜色深浅度的识别区域;3、识别区域内的像素点颜色以及颜色深浅度,并进行统计最终得到识别区域的颜色以及颜色深浅度。但是该专利在前期样本采集阶段,并未对不同光照情况下的车辆颜色识别进行处理;在选取特征向量时候通过多个颜色空间来得到不同的特征属性;在训练模型时候则使用多个类型的分类器来训练;定位识别区域的时候只选择了车前盖区域,对于可能的反光现象未作出处理,使得最终的车辆颜色识别和车辆颜色深浅识别产生一定的偏差。申请号为200810240292.0的中国专利申请公开的“一种车辆视频图像中车身颜色识别方法及系统”提供了一种车辆视频图像中车身颜色识别方法。该专利 ...
【技术保护点】
一种基于多任务深度卷积神经网络的车辆颜色识别系统,其特征在于:包括安装在道路行车线上方的高清摄像机、交通云服务器和车辆颜色的视觉检测子系统;所述的高清摄像机用于获取道路上的视频数据,配置在行车线的上方,通过网络将道路上的视频图像数据传输给所述的交通云服务器;所述的交通云服务器用于接收从所述的高清摄像机所获得的道路上的视频数据,并将其递交给所述的车辆颜色的视觉检测系统进行车辆颜色识别;所述的车辆颜色的视觉检测子系统包括车辆定位检测模块、车牌定位检测模块、车牌背景颜色识别模块、色差计算模块、车辆颜色校正模块和车辆颜色识别模块,所述的车辆定位检测模块、所述的车牌定位检测模块和所述的车辆颜色识别模块共享同一个Faster R‑CNN的深度卷积神经网络,采用深度卷积神经网络快速分割出道路上的车辆,并用车辆图像进一步采用深度卷积神经网络快速分割出道路上的车牌,然后再给出这些车辆和车牌在道路图像中所占的空间位置信息。
【技术特征摘要】
1.一种基于多任务深度卷积神经网络的车辆颜色识别系统,其特征在于:包括安装在道路行车线上方的高清摄像机、交通云服务器和车辆颜色的视觉检测子系统;所述的高清摄像机用于获取道路上的视频数据,配置在行车线的上方,通过网络将道路上的视频图像数据传输给所述的交通云服务器;所述的交通云服务器用于接收从所述的高清摄像机所获得的道路上的视频数据,并将其递交给所述的车辆颜色的视觉检测系统进行车辆颜色识别;所述的车辆颜色的视觉检测子系统包括车辆定位检测模块、车牌定位检测模块、车牌背景颜色识别模块、色差计算模块、车辆颜色校正模块和车辆颜色识别模块,所述的车辆定位检测模块、所述的车牌定位检测模块和所述的车辆颜色识别模块共享同一个FasterR-CNN的深度卷积神经网络,采用深度卷积神经网络快速分割出道路上的车辆,并用车辆图像进一步采用深度卷积神经网络快速分割出道路上的车牌,然后再给出这些车辆和车牌在道路图像中所占的空间位置信息。2.如权利要求1所述的基于多任务深度卷积神经网络的车辆颜色识别系统,其特征在于:车辆和车牌分割及定位由两个模型组成,一个模型是生成RoI的选择性搜索网络;另一个模型是FasterR-CNN车辆和车牌目标检测网络;在二分类识别网络后实现一个多层次、多标签、多特征融合的逐层递进的多任务学习网络;所述的选择性搜索网络,即RPN;RPN网络将一个任意尺度图像作为输入,输出矩形目标建议框的集合,每个框包含4个位置坐标变量和一个得分;所述的目标建议框的目标指的是车辆对象和车牌对象;对每个建议框是目标/非目标的估计概率,是用二分类的softmax层实现的分类层;k个建议框被相应的k个称为anchor的建议框参数化;每个anchor以当前滑动窗口中心为中心,并对应一种尺度和长宽比,使用3种尺度和3种长宽比,这样在每一个滑动位置就有k=9个anchor;训练RPN网络,给每个anchor分配一个二进制的标签,以此来标注该anchor是不是目标;然后分配正标签给这两类anchor:(I)与某个真正目标包围盒,即GroundTruth,GT有最高的IoU,即Interse-ction-over-Union,交集并集之比,重叠的anchor;(II)与任意GT包围盒有大于0.7的IoU交叠的anchor;注意到一个GT包围盒可能给多个anchor分配正标签;分配负标签给与所有GT包围盒的IoU比率都低于0.3的anchor;非正非负的anchor对训练目标没有任何作用,则弃用;遵循FasterR-CNN中的多任务损失,最小化目标函数;对一个图像的损失函数定义为:这里,i是一个anchor的索引,pi是anchor是第i目标的预测概率,如果anchor为正,GT标签就是1,如果anchor为负,就是0;ti是一个向量,表示预测的包围盒的4个参数化坐标,是与正anchor对应的GT包围盒的坐标向量;λ是一个平衡权重,这里λ=10,Ncls是cls项的归一化值为mini-batch的大小,这里Ncls=256,Nreg是reg项的归一化值为anchor位置的数量,Nreg~2,400,分类损失函数Lcls是三个类别,即车辆目标对象、车牌目标对象vs.道路背景的对数损失:式中,Lcls为分类损失函数,Pi为anchor是第i目标的预测概率;为真正目标包围盒的第i目标的预测概率;对于回归损失函数Lreg,用以下函数定义:式中,Lreg为回归损失函数,R是鲁棒的损失函数,用公式(4)计算smoothL1;式中,smoothL1为smoothL1损失函数,x为变量;FasterR-CNN网络,在输入图像经过深度卷积神经网络后得到特征图,依据特征图以及RPN网络则可以得到相应的RoIs,最后则通过RoI池化层;其中RoI,即感兴趣区域,指的就是车辆目标对象、车牌目标对象;对于FasterR-CNN网络,输入是N个特征映射和R个RoI;N个特征映射来自于最后一个卷积层,每个特征映射的大小都是w×h×c;每个RoI是一个元组(n,r,c,h,w),其中,n是特征映射的索引,n∈(0,1,2,...,N-1),r,c是左上角坐标,h,w分别是高和宽;输出则由最大池化得到的特征映射;将原图中的RoI与特征图中的块对应起来;将特征图下采样为固定大小,然后再传入全连接。3.如权利要求2所述的基于多任务深度卷积神经网络的车辆颜色识别系统,其特征在于:所述选择性搜索网络和FastR-CNN都是独立训练的,使用4步训练算法,通过交替优化来学习共享的特征;第一步,依上述训练RPN,该网络用ImageNet预训练的模型初始化,并端到端微调用于区域建议任务;第二步,利用第一步的RPN生成的建议框,由FastR-CNN训练一个单独的检测网络,这个检测网络同样是由ImageNet预训练的模型初始化的,这时候两个网络还...
【专利技术属性】
技术研发人员:汤一平,王辉,吴越,温晓岳,柳展,
申请(专利权)人:银江股份有限公司,
类型:发明
国别省市:浙江,33
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。