当前位置: 首页 > 专利查询>东南大学专利>正文

一种基于深度学习融合模型的车辆颜色识别方法技术

技术编号:34853631 阅读:38 留言:0更新日期:2022-09-08 07:54
本发明专利技术公开了一种基于深度学习融合模型的车辆颜色识别方法,包括:构建高速公路车脸图像数据集;采用YUV

【技术实现步骤摘要】
一种基于深度学习融合模型的车辆颜色识别方法


[0001]本专利技术属于智能交通、智慧高速研究领域,具体涉及一种基于深度学习融合模型的车辆颜色识别方法。

技术介绍

[0002]随着不停车收费技术的大范围普及,对车辆信息感知提出了新的要求,车辆信息感知正朝着将车辆号牌、品牌、颜色、类型等特征融为一体的车辆全息属性感知方向发展。与车辆号牌识别相比,当前对车辆颜色识别领域的研究较少,且车辆颜色作为车辆的基本属性,其占比大,不易遮挡修改,对图像质量不敏感。可以在很大程度上弥补车牌识别的不足。
[0003]在颜色识别研究中,传统机器学习方法依赖特征工程,计算效率低,难以应用于实际智能系统。而深度学习通过自适应提取特征,降低了计算复杂性,同时具有更强的泛化能力。融合网络通过结合各个单模型的结构特性,弥补单一模型的缺陷,融合各模型优势,可以大幅提升模型综合性能。因此,本专利技术提出了一种基于深度学习融合模型的车辆颜色识别方法。

技术实现思路

[0004]专利技术目的:为了克服现有技术中存在的不足,提供一种基于深度学习融合模型的车辆颜色识别方法,其采用YUV

FM

Retinex算法进行图像预处理,并利用深度融合神经网络有效地对车辆颜色进行识别和分类,可对高速公路场景中的车辆信息感知提供技术支持。
[0005]技术方案:为实现上述目的,本专利技术提供一种基于深度学习融合模型的车辆颜色识别方法,包括如下步骤:
[0006]S1:构建高速公路车脸图像数据集;<br/>[0007]S2:对高速公路车脸图像数据集进行YUV

FM

Retinex图像增强;
[0008]S3:构建基于深度学习的车辆颜色识别模型VCR

VGG16,获取一维特征向量F
V

[0009]S4:构建基于深度学习的车辆颜色识别模型VCR

Xception,获取一维特征向量F
X

[0010]S5:构建基于深度学习的车辆颜色识别模型VCR

DenseNet201,获取一维特征向量F
D

[0011]S6:将特征向量F
V
、F
X
、F
D
融合,构建基于深度学习车辆颜色识别融合模型VCR

FDCNN,进行车辆颜色识别。
[0012]进一步的,所述步骤S1中构建高速公路车脸图像数据集的具体方法如下:
[0013]S1

1:收集高速公路车脸图像7200幅,包括黑色、白色、红色、黄色、蓝色、绿色6个颜色类别,小汽车、大巴车、卡车3种车型,构建高速公路车脸图像数据集。其中每种车型各2400幅,图像包含不同时段不同光线条件的变化;
[0014]S1

2:各模型训练前,随机抽取图像数据作为训练集、验证集和测试集。
[0015]进一步的,所述步骤S2中对高速公路车脸图像数据进行YUV

FM

Retinex图像增强的具体步骤如下:
[0016]S2

1:切换YUV颜色空间,将RGB颜色空间内的原始图像转化到YUV颜色空间;
[0017]S2

2:分离通道,分离YUV颜色空间图像,得到亮度分量Y与色度分量U、V;
[0018]S2

3:FM

Retinex增强,仅对亮度分量Y进行FM

Retinex算法增强;
[0019]S2

4:通道融合,将增强后的亮度通道Y与色度通道U、V融合;
[0020]S2

5:切换RGB颜色空间,将YUV颜色空间内的图像转换回RGB颜色空间;
[0021]S2

6:亮度归一化,调整图像各通道灰度值归一化,再同比恢复至(0,225)区间。
[0022]进一步的,所述步骤S2

3中FM

Retinex算法增强的具体内容为:
[0023]①
将Y通道像素值由整数域转到对数域,并整体加1:
[0024]y'(x,y)=log(1+Y(x,y))
[0025]②
针对分辨率m
×
n的图像,设距当前像素点最远两比较点距离为X:
[0026]X=2
P
[0027]P=fix[log
2 min(m,n)

1][0028]③
若X&gt;0,则令:
[0029][0030]若X&lt;0,则令:
[0031][0032]④
每结束上一步计算,改变比较点间距:
[0033]X=

X/2
[0034]⑤
当|X|&lt;1时,得到最终输出结果数组r
n+1
(x,y),进行线性拉伸:
[0035][0036]其中,max和min分别表示r
n+1
(x,y)的最大和最小值。
[0037]进一步的,所述步骤S2

6中灰度值归一化的具体内容为:
[0038][0039]其中,G(x,y)、G

(x,y)分别为归一化前、归一化后的灰度值;Max、Min分别为原始图像灰度的最大值和最小值。
[0040]进一步的,所述步骤S3中构建基于深度学习的车辆颜色识别模型VCR

VGG16,获取一维特征向量F
V
的具体方法为:在VGG16模型的基础上,增加全局平均池化层、丢弃率为0.5的Dropout层和全连接层,网络识别种类分为黑色、白色、红色、黄色、蓝色、绿色6类,得到基于深度学习的VCR

VGG16车辆颜色识别模型,训练完成后删除末尾的全连接层与Dropout层,最后输出1
×1×
512的一维特征向量F
V

[0041]进一步的,所述步骤S4中构建基于深度学习的车辆颜色识别模型VCR

Xception,获取一维特征向量F
X
的具体方法为:在Xception模型的基础上,增加全局平均池化层、Dropout层和全连接层,网络识别种类分为黑色、白色、红色、黄色、蓝色、绿色6类,得到基于
深度学习的VCR

Xception车辆颜色识别模型,训练完成后删除全连接层与Dropout层,得到1
×1×
2048的一维特征向量F
X

[0042]进一步的,所述步骤S5中构建基于深度学习的车辆颜色识别模型VCR

DenseN本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于深度学习融合模型的车辆颜色识别方法,其特征在于:包括如下步骤:S1:构建高速公路车脸图像数据集;S2:对高速公路车脸图像数据集进行YUV

FM

Retinex图像增强;S3:构建基于深度学习的车辆颜色识别模型VCR

VGG16,获取一维特征向量F
V
;S4:构建基于深度学习的车辆颜色识别模型VCR

Xception,获取一维特征向量F
X
;S5:构建基于深度学习的车辆颜色识别模型VCR

DenseNet201,获取一维特征向量F
D
;S6:将特征向量F
V
、F
X
、F
D
融合,构建基于深度学习车辆颜色识别融合模型VCR

FDCNN,进行车辆颜色识别。2.根据权利要求1所述的一种基于深度学习融合模型的车辆颜色识别方法,其特征在于:所述步骤S1中构建高速公路车脸图像数据集的具体方法如下:S1

1:收集高速公路车脸图像7200幅,包含黑色、白色、红色、黄色、蓝色、绿色6种颜色类别,小汽车、大巴车、卡车3种车型,构建高速公路车脸图像数据集;其中每种车型各2400幅,图像包含不同时段不同光线条件的变化;S1

2:各模型训练前,随机抽取图像数据划分训练集、验证集和测试集。3.根据权利要求1所述的一种基于深度学习融合模型的车辆颜色识别方法,其特征在于:所述步骤S2中对高速公路车脸图像数据进行YUV

FM

Retinex图像增强的具体步骤如下:S2

1:切换YUV颜色空间,将RGB颜色空间内的初始图像转化到YUV颜色空间;S2

2:分离通道,分离YUV颜色空间图像,得到亮度分量Y与色度分量U、V;S2

3:FM

Retinex增强,仅对亮度分量Y进行FM

Retinex算法增强;S2

4:通道融合,将增强后的亮度通道Y与色度通道U、V融合;S2

5:切换RGB颜色空间,将YUV颜色空间内的图像转换回RGB颜色空间;S2

6:亮度归一化,调整图像各通道灰度值归一化,再同比恢复至(0,225)区间。4.根据权利要求3所述的一种基于深度学习融合模型的车辆颜色识别方法,其特征在于:所述步骤S2

3中FM

Retinex算法增强的具体内容为:

将Y通道像素值由整数域转到对数域,并整体加1:Y

(x,y)=log(1+Y(x,y))

针对分辨率m
×
n的图像,设距当前像素点最远两比较点距离为X:X=2
P
P=fix[log2min(m,n)

1]

若X&gt;0,则令:若X&lt;0,则令:

每结束上一步计算,改变比较点间距:X=

X/2

当|X|&lt;1时,得到最终输出结果数组r
n+1
(x,y),进行线性拉伸:其中,max和min分别表示r
n+1
(x,y)的最大和最小值。5.根据权利要求3所述的一种基于深度学习融合模型的车辆颜色识别方法,其特征在于:所述步骤S2

6...

【专利技术属性】
技术研发人员:赵池航马欣怡苏子钧吴宇航
申请(专利权)人:东南大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1