基于改进CenterNet的瓶底模点识别方法及系统技术方案

技术编号:31756669 阅读:14 留言:0更新日期:2022-01-05 16:39
本发明专利技术采用基于改进CenterNet的瓶底模点识别系统来识别瓶底模点,涉及到基于深度学习目标检测的瓶底模点识别方法以及系统。主要包括以下内容:利用瓶底模点数据集进行分析标注,生成图片标签数据集,搭建ResNet

【技术实现步骤摘要】
基于改进CenterNet的瓶底模点识别方法及系统


[0001]本专利技术涉及到的领域主要为工业计算机视觉领域,涵盖了深度学习目标检测技术,主要是基于改进的CenterNet目标检测网络对瓶子底部模点进行识别。

技术介绍

[0002]长期以来,玻璃容器被广泛应用于社会生活各个方面,玻璃容器的生产作为工业生产中的一大重要领域。玻璃容器的质量好坏决定了用户的安全,一个劣质的玻璃容器可能会在用户使用过程中炸裂,引发一系列安全问题。解决劣质玻璃容器生产的关键一环是对玻璃瓶进行溯源,找到其生产线来解决生产问题。对于玻璃容器的溯源指的是:通过对玻璃瓶底上的数字标记识别定位到玻璃容器批次,从而进一步定位到玻璃容器的生产线。
[0003]工业检测领域是机器视觉应用中比重最大的领域,主要用于产品质量检测、产品分类、产品溯源等。工业检测领域中的玻璃瓶溯源方向大量运用以机器学习统计分类为主导的分类方法,例如KNN以及朴素贝叶斯算法,前者是通过计算二者的相似度,找出k个训练样本,然后进行打分,按得分值排序,后者是计算概率,构建概率模型,选出条件下最大概率物体进行分类。这两种方法的缺点在于对噪声数据过于敏感,尤其是当瓶底模点打印不清晰时,识别效果会非常差。另外,机器学习方法的参数需要人工调整导致检测不准确,浪费了大量的人力物力,最高只能达到85%左右的准确率。
[0004]随着深度学习的发展,深度学习开始在工业计算机视觉应用。CenterNet是一种深度学习目标检测模型,常用于对图片中的物体进行分类并且标出物体的所在位置,在工业计算机视觉领域用于相关物体的识别以及定位。
[0005]CenterNet的原理是在物体的边界框中心用一个点表示对象,然后直接从位于中心位置的图像特征回归,继而判断物体类别以及物体位置。CenterNet是一种单阶段目标检测模型,在特征提取网络后进行图片的上采样,采用分辨率比较大的特征图,由于使用大分辨率图像对于物体有很好的识别能力,CenterNet很好地平衡了精度与速度的关系。
[0006]但上述所有深度学习模型对于实际操作都有一个问题:在卷积的过程中特征可能会被丢掉导致识别不准。
[0007]CBAM注意力机制可以解决上述的问题,CBAM模块是一种结合空间注意力机制以及通道注意力机制的模块,通过CBAM模块对生成的特征图进行加权运算后可以注意到物体的特征,使特征提取效果更好,从而提升检测准确性。

技术实现思路

[0008]本专利技术提出了一种新的关于瓶底模点识别的方法及系统,专利技术包括了ResNet

CBAM网络,CenterNet目标检测网络。
[0009]一、基于改进centernet的平底模点识别方法及系统主要有以下步骤:步骤1:利用瓶底模点数据集进行分析标注,生成图片标签数据集:对生产线工业相机采集到的图像进行分析以及标注,将瓶底模点用矩形框标出,生成标签数据集以及真
实图像数据集,根据标签数据集生成带有矩形框位置的训练数据集,用于后期模型的训练。
[0010]步骤2:搭建ResNet

CBAM主干特征提取网络模型:ResNet作为本专利技术的主干特征提取网络,主要是用来对瓶底模点的图片进行特征的提取,为了让图像特征更为清晰,采用CBAM模块嵌入其中,在加载图片时做数据增强处理。
[0011]步骤3:搭建CenterNet目标检测网络模型:CenterNet目标检测模型包括上采样获得高分辨率图像,生成热力图,对热力点进行回归分类,对回归分类结果进行解码等几个步骤,将CenterNet模型嵌入到整体模型中,CenterNet的输入为步骤2中的ResNet

CBAM模型的输出,CenterNet的输出为最终预测结果。
[0012]步骤4:通过反向传播以及Focal Loss计算损失以及更新模型,构建训练过程曲线图,对模型进行保存。
[0013]步骤5:对构建好的模型进行测试,通过输出的检测结果判断瓶子编号。
[0014]二、进一步的,根据一种基于改进CenterNet的瓶底模点识别方法及系统,其特征在于,所述的步骤1中,还包含以下步骤:将数据集划分为训练集以及测试集,比例为9:1,模型标签中包含物体的中心点位置以及宽高。
[0015]三、进一步的,根据一种基于改进CenterNet的瓶底模点识别方法及系统,其特征在于,所述的步骤2中,还包含以下步骤:1. 将瓶底模点目标识别模型的主干特征提取网络ResNet运用CBAM模块,特征提取网络的输入维度为512*512*3,输出维度为16*16*2048。
[0016]2. 为了在主干网络输出时有较多的正样本数量,采用一些对图片进行去噪和增强灰度值的操作,便于后期图片处理。
[0017]四、进一步的,根据一种基于改进CenterNet的瓶底模点识别方法及系统,其特征在于,所述的步骤3中,还包含以下步骤:1. 将CenterNet用于特定的瓶底模点识别问题,CenterNet的输入维度为16*16*2048,输出维度由目标物体种类所决定。
[0018]2. 在进行物体位置以及种类的预测时,需要将8位灰度图变换为24位RGB图像。3. 在进行预测框的解码后对其进行非极大值抑制处理,取出置信度最大的预测结果。
[0019]五、进一步的,根据一种基于改进CenterNet的瓶底模点识别方法及系统,其特征在于,所述的步骤4中,还包含以下步骤:1. 采用了特定的对瓶底模点识别的模型的训练方法,首先加载预训练权重保存参数,随后进行训练,前50次迭代预训练权重不参与更新,对整体的模型进行建立。
[0020]2. 在完成前50次迭代后,预训练权重参与模型更新,进行完所有训练轮次保存模型参数,并构建模型损失曲线。
[0021]六、进一步的,根据一种基于改进CenterNet的瓶底模点识别方法及系统,其特征在于,所述的步骤5中,还包含以下步骤:在对模型进行测试时,将原本8位灰度图转换为24位RGB图进行测试。
[0022]与现有的瓶底模点检测技术相比,本专利技术的创新与提升主要在以下几点:1.与传统的模点检测算法不同,本专利技术将深度学习目标检测网络的无锚思想利用与瓶底模点检测,通过生成热力点以及对热力点的回归分类可以减少对候选框的生成以及
卷积,提升了检测的速度,对网络训练的速度也有明显的提升,通过第一个反卷积网络生成高分辨率图像有利于特征的显现,对于大目标以及小目标的检测显现出很强的稳定性,增强了识别的精度,提升了模型的泛化力度。
[0023]2.与传统的瓶底模点检测算法卷积网络识别不同,由于在卷积的过程中一些关键特征可能会被忽略,这就会导致后继的目标检测网络丢失关键特征导致目标检测不准确甚至失效,本专利技术改进了深度学习CenterNet的主干特征提取网络模型,将通道以及空间的注意力机制融合到残差网络的捷径连接中,以此来提高对特征提取的精度,对后继的目标检测网络检测有很好的性能提升。
...

【技术保护点】

【技术特征摘要】
1.基于改进CenterNet的瓶底模点识别方法及系统主要有以下步骤:步骤1:利用瓶底模点数据集进行分析标注,生成图片标签数据集:对生产线工业相机采集到的图像进行分析以及标注,将瓶底模点用矩形框标出,生成标签数据集以及真实图像数据集,根据标签数据集生成带有矩形框位置的训练数据集,用于后期模型的训练;步骤2:搭建ResNet

CBAM主干特征提取网络模型:ResNet作为本发明的主干特征提取网络,主要是用来对瓶底模点的图片进行特征的提取,为了让图像特征更为清晰,采用CBAM模块嵌入其中,在加载图片时做数据增强处理;步骤3:搭建CenterNet目标检测网络模型:CenterNet目标检测模型包括上采样获得高分辨率图像,生成热力图,对热力点进行回归分类,对回归分类结果进行解码等几个步骤,将CenterNet模型嵌入到整体模型中,CenterNet的输入为步骤2中的ResNet

CBAM模型的输出,CenterNet的输出为最终预测结果;步骤4:通过反向传播以及Focal Loss计算损失以及更新模型,构建模型训练图,对模型进行保存;步骤5:对构建好的模型进行测试,通过输出的检测结果判断瓶子编号。2.根据权利要求1所述的基于改进CenterNet的瓶底模点识别方法及系统,步骤1所述的图像数据集其特性在于:将数据集划分为训练集以及测试集,比例为9:1,模型标签中包含物体的中心点位置以及宽高。3.根据权利要求1所述的基于改进Cent...

【专利技术属性】
技术研发人员:周鸣乐张泽恺李刚李敏李旺刘一鸣
申请(专利权)人:山东省计算中心国家超级计算济南中心
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1