一种提升交通场景目标检测分类精度的方法和系统技术方案

技术编号:37185715 阅读:14 留言:0更新日期:2023-04-20 22:49
本发明专利技术公开了一种提升交通场景目标检测分类精度的方法和系统,包括以下步骤:S1:获取交通视频;S2:将交通视频转化为交通图像;S3:基于卷积神经网络对交通图像进行识别,得到交通图像的分类结果;S4:基于交通图像的分类结果进行预警。本发明专利技术的有益效果是:能提升模型的收敛速度,加快模型的训练,提升模型的识别精度。精度。精度。

【技术实现步骤摘要】
一种提升交通场景目标检测分类精度的方法和系统


[0001]本专利技术涉及交通检测
,特别涉及一种提升交通场景目标检测分类精度的方法和系统。

技术介绍

[0002]近年来基于深度学习的目标检测技术在交通场景下的应用越来越广泛。早期人们更多关注的交通目标的位置信息,但是随着技术和生活结合的越来越紧密,对交通目标的类别需求也越来越精细。
[0003]现有技术中,对细分类别识别主要通过添加注意力模块,使网络对中间层特征细化,进一步来提升类别的精度。但是添加注意力模块后,增加了模型的复杂度推理时间,不利于模型的部署使用,尤其是在交通场景上对模型的推理速度要求较高,模型部署在Jetson等设备上时,必须保证模型的轻量化。存在模型识别时间较长的问题。
[0004]例如,一种在中国专利文献上公开的“一种基于交通灯几何属性的行人交通灯识别方法”,其公告号:CN113011251A,其申请日:2021年02月03日,该专利技术通过交通灯帧图像和识别的交通灯的形状,来识别出交通灯的动态状态,以实现为视障人士提供更加精准的指引,但是存在模型识别时间较长和精度较低的问题。

技术实现思路

[0005]针对现有技术模型识别时间较长和精度较低的不足,本专利技术提出了一种提升交通场景目标检测分类精度的方法和系统,能提升模型的收敛速度,加快模型的训练,提升模型的识别精度。
[0006]以下是本专利技术的技术方案,一种提升交通场景目标检测分类精度的方法,包括以下步骤:
[0007]S1:获取交通视频;
[0008]S2:将交通视频转化为交通图像;
[0009]S3:基于卷积神经网络对交通图像进行识别,得到交通图像的分类结果;
[0010]S4:基于交通图像的分类结果进行预警。
[0011]本方案中,通过视频采集模块采集交通视频,将交通视频转化为交通图像,便于卷积神经网络对交通图像进行识别分类得到交通图像的分类结果,基于交通图像的分类结果进行预警。能根据交通视频得到分类信息,能提升模型的收敛速度和识别精度。
[0012]作为优选,S3包括以下步骤:
[0013]S31:输入交通图像,计算锚框和数据增强;
[0014]S32:使用CSP结构对交通图像进行五次下采样;
[0015]S33:将第三次、第四次和第五次下采样得到的特征图分别进行特征提取和融合,得到特征图分别T3、T4和T5;
[0016]S34:T3、T4和T5后分别接入GSConv结构,生成的特征图分别记做P3、P4和P5;
[0017]S35:P5经过两倍上采样后与P4进行通道叠加,经过C3结构后进一步细化融合特征,然后进行2倍上采样后与P3进行通道叠加,经过C3结构后进一步细化融合特征,得到特征M3;M3经过2倍下采样后与P4进行通道叠加,再经过C3结构后进一步细化融合特征,得到特征M4;
[0018]M4经过2倍下采样后与P5进行通道叠加,再经过C3结构后进一步细化融合特征,得到特征M5;
[0019]S36:M3、M4和M5分别通过一个conv+BN+SiLU卷积结构块得到特征图分别记做Q3、Q4和Q5;
[0020]S37:把Q3、Q4和Q5分别输入检测头;
[0021]S38:对Q3、Q4和Q5进行预测,生成边界框并预测交通图像的分类。
[0022]本方案中,对交通图像进行五次下采样,通过GSConv结构处理下采样得到的特征图,按照指定规律对特征图进行通道叠加得到细化融合特征,再经过标准卷积得到新的特征图,将新的特征图输入到检测头进行预测,得到交通图像的分类,能够提升模型的收敛速度和识别精度。
[0023]作为优选,步骤S31中,交通图像按照卷积神经网络模型的图像大小等比缩放。
[0024]本方案中,按照卷积神经网络模型预设的图像大小等比缩放交通图像,能够使交通图像内容不发生形变的前提下进入卷积神经网络模型进行识别,提高了模型的识别精度。
[0025]作为优选,步骤S33中,采用1x1卷积进行特征提取和特征融合。
[0026]本方案中,1x1卷积核的卷积过程相当于全连接的计算过程,通过加入非线性激活函数,可以增加网络的非线性,使得网络可以表达更复杂的特征,在模型设计中,可以起到模型优化和减少参数量的作用,提高了模型的识别精度。
[0027]作为优选,步骤S34中,GSConv结构为:输入特征图C1,C1经过一个conv+BN+SiLU卷积结构块得到特征图C21,特征图C21再次经过一个conv+BN+SiLU卷积结构块得到特征图C22,将C21和C22进行通道叠加,加入shuffle进行通道裁剪后输出特征图C2。
[0028]本方案中,使用GSConv结构处理特征图后,使处理后的特征图具有更复杂的特征,在识别分类时具有更高的精度。
[0029]作为优选,卷积神经网络模型中的样本分配策略,包括以下步骤:
[0030]S301:匹配anchors和GT,确定当前特征图的正样本anchors;
[0031]S302:将当前特征图的正样本分配给对应grid;
[0032]S303:计算每一个正样本对每一个GT的回归和分类损失,获取cost矩阵以及IoU矩阵;
[0033]S304:基于IoU矩阵,排序选取前十个候选框;
[0034]S305:对这十个候选框的IoU进行相加并向下取整,得到候选框个数k;
[0035]S306:根据cost矩阵挑选出前k个候选框并去除重复候选框。
[0036]本方案中,不通过增加数据集,来平衡正负样本,提高模型的精度。
[0037]作为优选,步骤S4中,若分类结果和预警分类匹配,通过文字、声音和灯光对分类结果进行预警。
[0038]本方案中,设置需预警的交通图像分类为预警分类,预警分类包括一种或多种分
类结果,针对不同的分类结果设置相同或不同的预警方案,预警方案包括预警文字、预警声音和预警灯光等,即通过文字、声音和灯光对分类结果进行预警。能对指定分类结果进行预警,提高系统的适用性。
[0039]作为优选,步骤S2中,交通视频每隔5至20帧转换一次交通图像。
[0040]本方案中,由于一个交通视频包含的帧数过多,不需要全部帧转成交通图像,因此设置每隔10帧再转换一次交通图像,能够提升模型的识别速度。
[0041]一种提升交通场景目标检测分类精度的系统,包括:视频采集模块,视频采集模块连接运维传输模块,运维传输模块连接视频存储模块,视频存储模块连接视频处理模块和显示模块,视频处理模块连接目标检测模块,目标检测模块连接目标存储模块和目标预警模块,目标存储模块连接显示模块。
[0042]本方案中,视频采集模块用于采集交通视频;运维传输模块用于传输交通视频至数据库;视频存储模块用于存储交通视频;视频处理模块用于提取视频交通视频的图像帧;目标检测模块用于检测识别分类交通图像;目标存储模块本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种提升交通场景目标检测分类精度的方法,其特征在于,包括以下步骤:S1:获取交通视频;S2:将交通视频转化为交通图像;S3:基于卷积神经网络对交通图像进行识别,得到交通图像的分类结果;S4:基于交通图像的分类结果进行预警。2.根据权利要求1所述的一种提升交通场景目标检测分类精度的方法,其特征在于,S3包括以下步骤:S31:输入交通图像,计算锚框和数据增强;S32:使用CSP结构对交通图像进行五次下采样;S33:将第三次、第四次和第五次下采样得到的特征图分别进行特征提取和融合,得到特征图分别T3、T4和T5;S34:T3、T4和T5后分别接入GSConv结构,生成的特征图分别记做P3、P4和P5;S35:P5经过两倍上采样后与P4进行通道叠加,经过C3结构后进一步细化融合特征,然后进行2倍上采样后与P3进行通道叠加,经过C3结构后进一步细化融合特征,得到特征M3;M3经过2倍下采样后与P4进行通道叠加,再经过C3结构后进一步细化融合特征,得到特征M4;M4经过2倍下采样后与P5进行通道叠加,再经过C3结构后进一步细化融合特征,得到特征M5;S36:M3、M4和M5分别通过一个conv+BN+SiLU卷积结构块得到特征图分别记做Q3、Q4和Q5;S37:把Q3、Q4和Q5分别输入检测头;S38:对Q3、Q4和Q5进行预测,生成边界框并预测交通图像的分类。3.根据权利要求2所述的一种提升交通场景目标检测分类精度的方法,其特征在于,步骤S31中,交通图像按照卷积神经网络模型的图像大小等比缩放。4.根据权利要求2或3所述的一种提升交通场景目标检测分类精度的方法,其特征在于,步骤S33中,采用1x1卷积进行特征提取和特征融合。5.根据权利要求2或3所述的一种提升交通场景目标检测分类精度的方法,其特征在于,步骤S34中,GSConv结构为:输入特征图...

【专利技术属性】
技术研发人员:莫王忠吴劲峰宋腾飞张巧焕陈瑞生蒋栋奇
申请(专利权)人:浙江中控信息产业股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1