一种用于车牌识别的车牌定位方法、装置及存储介质制造方法及图纸

技术编号:32574912 阅读:9 留言:0更新日期:2022-03-09 17:03
本发明专利技术公开了一种用于车牌识别的车牌定位方法、装置及存储介质,所述方法包括:获取待识别图像,待识别图像中至少包含一张待识别车牌;将待识别图像输入至车牌定位模型中进行定位检测,得到待识别车牌对应的4个车牌角点坐标,以便根据4个车牌角点坐标,完成待识别图像中的车牌定位,其中,车牌定位模型包括MobileNetV1

【技术实现步骤摘要】
一种用于车牌识别的车牌定位方法、装置及存储介质


[0001]本专利技术属于车牌识别
,具体涉及一种用于车牌识别的车牌定位方法、装置及存储介质。

技术介绍

[0002]随着计算机视觉、数字图像处理技术以及智能交通技术的发展,车牌识别技术在智能交通领域中的应用越来越广泛,如停车场闸口、高速公路收费站以及交通违规识别等场景,而在车牌识别技术中,车牌定位以及车牌矫正是首要问题,也是影响车牌识别精度的重要因素。
[0003]现有的车牌定位技术中,主要以传统图像处理算法和基于深度学习的目标检测算法为主,其中,基于传统图像处理算法的车牌识别技术,主要以图像二值化、车牌颜色特征以及车牌边缘特征等手段定位分割出车牌,进而通过车牌字符倾斜特征矫正车牌;而基于深度学习的目标检测算法,如Yolo(You Only Look Once,是Joseph Redmon和Ali Farhadi等人于2015年提出的基于单个神经网络的目标检测系统)、SSD(Single Shot MultiBox Detector,物体检测网络)以及R

CNN(Region

CNN(Convolutional Neural Networks,卷积神经网络),是第一个成功将深度学习应用到目标检测上的算法)等目标检测算法,在检测领域发展迅猛,应用于车牌定位已有丰富的理论支撑和经验参考,该方法具有适应车牌广、召回率高以及定位精确等优点。
[0004]但是前述两种定位方法存在以下不足:由于中国车牌样式以及颜色众多,存在渐变绿色、蓝色、黑色以及白色等样式,同时受到实际场景下光照等因素的影响,传统的图像处理算法定位车牌难度较大,精度不够,鲁棒性不足;另外,在实际场景中,车牌识别摄像头与车之间存在不确定的角度,目标检测算法定位出的车牌存在倾斜问题,需要再结合图像技术或深度学习技术进行倾斜矫正,干扰过滤等后处理,且由于干扰影响,实际中很难做到高精度的车牌定位,从而也导致车牌识别精度不高;由此,提供一种精度高的车牌定位方法迫在眉睫。

技术实现思路

[0005]本专利技术的目的是提供一种用于车牌识别的车牌定位方法、装置及存储介质,以解决现有车牌定位方法所存在的精度低的问题。
[0006]为了实现上述目的,本专利技术采用以下技术方案:
[0007]本专利技术提供了一种用于车牌识别的车牌定位方法,包括:
[0008]获取待识别图像,其中,所述待识别图像中至少包含一张待识别车牌;
[0009]将所述待识别图像输入至车牌定位模型中进行定位检测,得到所述待识别车牌对应的4个车牌角点坐标,以便根据所述4个车牌角点坐标,完成所述待识别图像中的车牌定位,其中,所述车牌定位模型包括MobileNetV1

0.25网络、FPN网络、SSH网络以及head网络;
[0010]所述MobileNetV1

0.25网络作为所述车牌定位模型的主干特征提取网络,用于在
三种感受野条件下对所述待识别图像进行特征提取,得到三个第一特征图;
[0011]所述FPN网络用于对三个第一特征图进行上采样以及特征融合,得到三个第二特征图;
[0012]所述SSH网络包括三个并行的卷积层,用于利用所述三个并行的卷积层对三个第二特征图进行卷积处理,得到三个第三特征图;
[0013]所述head网络用于对三个第三特征图进行车牌关键点预测,以输出8维的关键点向量,以便根据所述关键点向量得到所述4个车牌角点坐标。
[0014]基于上述公开的内容,本专利技术通过利用MobileNetV1

0.25网络、FPN网络、SSH网络以及head网络预先构建车牌定位模型,从而将待识别图像输入至模型中进行特征提取,即先利用MobileNetV1

0.25网络进行主干特征提取,然后利用FPN网络对提取的主干特征进行特征融合,得到具有更为丰富特征信息的特征图,接着,再利用SSH网络中三个并行的卷积层对FPN网络输出的特征图进行多尺度检测,进一步的加强特征提取,以增强提取的特征的上下文信息,从而提高提取的车牌特征质量,达到提高车牌定位精度的目的,最后,利用head网络进行关键点预测,输出8维关键点向量,即本专利技术将模型中的关键点分支输出维度由10维更改为8维,以便匹配车牌的4个角点,由此,本专利技术可直接获取车牌的4个角点,实现了端到端的车牌定位,避免目标检测以及图像处理技术所存在的误差大以及精度低问题,进一步的提高了车牌定位精度。
[0015]通过上述设计,本专利技术可直接获取车牌的4个角点,实现了端到端的车牌定位,避免了目标检测以及图像处理技术所存在的误差大以及精度低问题,且本专利技术采用MobileNetV1

0.25网络为骨干网络,在精度几乎没有损失的情况下,实现了车牌定位,降低了整体模型的参数量和计算量,为终端部署车牌识别系统提供了条件,适用于大规模推广与应用。
[0016]在一个可能的设计中,所述车牌定位模型的损失函数为:
[0017][0018]上述式中,L表示所述车牌定位模型的损失函数,L
cls
表示目标分类损失函数,L
box
表示检测框回归损失函数,L
pts
表示关键点回归损失函数,p
i
表示锚点i被预测为车牌角点的概率,为1时表示为正锚点的真实标签,为0时表示负锚点的真实标签,t
i
表示锚点框中的预测框的预测坐标,表示锚点框中的预测框的真实坐标,l
i
表示锚点框中预测的车牌角点坐标,表示车牌标注角点坐标,λ1、λ2、λ3和λ4表示权重系数,为常数;
[0019]L
pts1
表示角点距离约束函数,用于约束待识别车牌的两平行边的距离;
[0020]L
pts2
表示角点距离比例约束函数,用于约束待识别车牌的长度与宽度的比例。
[0021]在一个可能的设计中,所述角点距离约束函数为:
[0022]L
pts1
(l
i
)=|||l0l1|

|l2l3|||+|||l0l2|

|l1l3|||
[0023]上述式中,l0l1表示第一个车牌角点与第二个车牌角点之间的距离,l2l3表示第三个车牌角点与第四个车牌角点之间的距离,l0l2表示第一个车牌角点与第三个车牌角点之间的距离,l1l3表示第二个车牌角点与第四个车牌角点之间的距离,其中,所述待识别车牌的左上角为第一个车牌角点,右上角为第二个车牌角点,左下角为第三个车牌角点,右下角为第四个车牌角点。
[0024]在一个可能的设计中,所述角点距离比例约束函数为:
[0025][0026]前述式中,表示第一个车牌标注角点到第二个车牌标注角点之间的距离,表示第一个车牌标注角点到第三个车牌标注角点之间的距离。
[0027]本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种用于车牌识别的车牌定位方法,其特征在于,包括:获取待识别图像,其中,所述待识别图像中至少包含一张待识别车牌;将所述待识别图像输入至车牌定位模型中进行定位检测,得到所述待识别车牌对应的4个车牌角点坐标,以便根据所述4个车牌角点坐标,完成所述待识别图像中的车牌定位,其中,所述车牌定位模型包括MobileNetV1

0.25网络、FPN网络、SSH网络以及head网络;所述MobileNetV1

0.25网络作为所述车牌定位模型的主干特征提取网络,用于在三种感受野条件下对所述待识别图像进行特征提取,得到三个第一特征图;所述FPN网络用于对三个第一特征图进行上采样以及特征融合,得到三个第二特征图;所述SSH网络包括三个并行的卷积层,用于利用所述三个并行的卷积层对三个第二特征图进行卷积处理,得到三个第三特征图;所述head网络用于对三个第三特征图进行车牌关键点预测,以输出8维的关键点向量,以便根据所述关键点向量得到所述4个车牌角点坐标。2.如权利要求1所述的方法,其特征在于,所述车牌定位模型的损失函数为:上述式中,L表示所述车牌定位模型的损失函数,L
cls
表示目标分类损失函数,L
box
表示检测框回归损失函数,L
pts
表示关键点回归损失函数,p
i
表示锚点i被预测为车牌角点的概率,为1时表示为正锚点的真实标签,为0时表示负锚点的真实标签,t
i
表示锚点框中的预测框的预测坐标,表示锚点框中的预测框的真实坐标,l
i
表示锚点框中预测的车牌角点坐标,表示车牌标注角点坐标,λ1、λ2、λ3和λ4表示权重系数,为常数;L
pts1
表示角点距离约束函数,用于约束待识别车牌的两平行边的距离;L
pts2
表示角点距离比例约束函数,用于约束待识别车牌的长度与宽度的比例。3.如权利要求2所述的方法,其特征在于,所述角点距离约束函数为:L
pts1
(l
i
)=|||l0l1|

|l2l3|||+|||l0l2|

|l1l3|||上述式中,l0l1表示第一个车牌角点与第二个车牌角点之间的距离,...

【专利技术属性】
技术研发人员:何翔
申请(专利权)人:成都新潮传媒集团有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1