一种耳机罩缺陷检测方法、装置、设备及存储介质制造方法及图纸

技术编号:37667239 阅读:9 留言:0更新日期:2023-05-26 04:26
本发明专利技术公开了一种耳机罩缺陷检测方法、装置、设备及存储介质,包括:首先采集耳机罩表面样本构造样本数据集;其次进行亮度均衡算法处理,可以提高缺陷区域的对比度,帮助网络模型更好地训练;然后构造深度卷积生成对抗网络DCGAN模型,用于扩充缺陷样本;然后将扩充的缺陷样本加入的初始的样本数据集中,作为新的样本数据集;最后将UNet作为主干网络,并加入了注意力机制构建语义分割网络Attention

【技术实现步骤摘要】
一种耳机罩缺陷检测方法、装置、设备及存储介质


[0001]本专利技术涉及缺陷检测
,特别涉及一种耳机罩缺陷检测方法、装置、设备及存储介质。

技术介绍

[0002]由于耳机罩是一个复杂的立体物品,需要检测的缺陷种类多,且检测难度高,所以目前检测耳机罩缺陷主要还是使用人工目检这种传统的方法,但是这种方法存在着很多问题:1、劳动强度大、检测稳定性及一致性差;2、自动化程度低、生产效率低;3、难以形成精益化生产;4、招工难、用工难、培训难、成本高。
[0003]有一些企业尝试使用基于机器视觉和传统图像处理的方法去检测耳机罩缺陷,这种方法是通过适当的光源和图像传感器(CCD摄像机)获取产品的表面图像,利用相应的图像处理算法提取图像的特征信息,然后根据特征信息进行表面缺陷的定位、识别。目前基于机器视觉和传统图像处理的耳机罩缺陷检测方法存在以下问题:1、受环境、光照、生产工艺和噪声等多重因素影响,要求检测系统的信噪比一般比较低,对微弱的缺陷信号难以检出或不能与噪声有效区分;2、基于机器视觉和传统图像处理的缺陷检测方法的准确性不高,当检测对象多样、表面缺陷种类繁多、形态多样、背景复杂时,缺陷的特征提取较为困难,传统算法的延展性不足,难以形成一个有效统一的缺陷识别方法,且在面对数据量较大的时候,提取缺陷特征的算法能力不足,实时性不高。
[0004]因此,耳机罩外观缺陷特征提取困难以及部分缺陷样本少导致样本不均衡是亟待解决的技术问题。

技术实现思路

[0005]本专利技术主要解决耳机罩外观缺陷特征提取困难以及部分缺陷样本少导致样本不均衡的技术问题。为了解决该技术问题,本专利技术采取的技术方案是:一种耳机罩缺陷检测方法、装置、设备及存储介质。
[0006]根据本专利技术的第一方面,一种耳机罩缺陷检测方法,包括以下步骤:
[0007]采集耳机罩表面样本,构造样本数据集,所述样本数据集包括正常样本和缺陷样本;
[0008]采用局部亮度均衡算法对样本数据集进行预处理;
[0009]构造深度卷积生成对抗网络DCGAN模型,对预处理后的缺陷样本进行扩充;
[0010]将扩充生成的缺陷样本加入到初始的样本数据集中,作为新的样本数据集;
[0011]构造语义分割网络模型,并输入新的样本数据集进行网络训练;
[0012]实时加载待检测图片,进行预处理后,使用训练好的语义分割网络模型对待检测图片中缺陷区域进行检测,并将检测结果进行显示。
[0013]进一步地,所述采用局部亮度均衡算法对样本数据集进行预处理,包括:
[0014]获取样本数据集中每个原像素点的灰度值为x
i
,计算每个原像素点的缩放比例X
i

计算公式为:
[0015][0016]给定附加比例系数α,计算均衡后的灰度值X
out
,计算公式为:
[0017][0018]将每个原像素点的灰度值替换为均衡后的灰度值,即完成样本数据集的预处理。
[0019]进一步地,所述构造深度卷积生成对抗网络DCGAN模型,对预处理后的缺陷样本进行扩充,包括:
[0020]a、训练判别器D:
[0021]初始化判别器D的网络参数,利用训练集中的n个样本来训练判别器D;
[0022]b、固定判别器D,训练生成器G:
[0023]初始化生成器G的网络参数,利用高斯噪声使生成器G生成假图,使生成器G的能力不断提高,直到判别器D判断假图是否为假的概率为50%时停止;
[0024]c、固定生成器G,训练判别器D:
[0025]固定生成器G,然后开始训练判别器D,判别器D通过不断训练,直到可以准确的判断出所有的假图;
[0026]d、循环步骤b和步骤c的过程,多次更新迭代后,理想状态下,最终判别器D无法区分图片是来自真实的缺陷样本集合,还是来自生成器G生成的缺陷样本,此时辨别正确的概率为50%;同时观察生成器G生成的缺陷样本质量来判断生成器G训练的结果是否符合要求,若符合要求,则训练完成,否则返回步骤b。
[0027]进一步地,所述语义分割网络是采用UNet作为主干网络,并加入了Attention机制,语义分割网络的输入和输出尺寸是一致的,语义分割网络包括:特征提取网络和上采样层,其中特征提取网络包含4个Conv卷积块结构来提取特征,每一个Conv卷积块包含一个卷积层、一个Relu激活层和归一化层;4个上采样层完成从特征向量中还原出图像的底层特征来得到生成图像,每个上采样层都对输入进行卷积、Relu激活和归一化处理,所有卷积层使用的卷积核大小均为3*3,步长为2;上采样操作的尺寸大小均为2。
[0028]进一步地,所述语义分割网络的训练过程中,构造并利用损失函数与随即梯度下降算法更新网络权重参数,直至模型损失收敛,所述损失函数的表达式如下:
[0029][0030]其中m代表batch_size的大小,n代表缺陷类别数量,p(x
ij
)为真实标签值,q(x
ij
)为网络训练值。
[0031]进一步地,在所述语义分割网络的训练之前,还包括:对新的样本数据集进行数据增强。
[0032]进一步地,所述数据增强包括:几何变换、色彩变化和随机剪裁。
[0033]根据本专利技术的第二方面,一种耳机罩缺陷检测装置,包括以下模块:
[0034]初始数据集构造模块,用于采集耳机罩表面样本,构造样本数据集,所述样本数据
集包括正常样本和缺陷样本;
[0035]数据集预处理模块,用于采用局部亮度均衡算法对样本数据集进行预处理;
[0036]缺陷样本扩充模块,用于构造深度卷积生成对抗网络DCGAN模型,对预处理后的缺陷样本进行扩充;
[0037]新数据集构造模块,用于将扩充生成的缺陷样本加入到初始的样本数据集中,作为新的样本数据集;
[0038]语义分割网络构造及训练模块,用于构造语义分割网络模型,并输入新的样本数据集进行网络训练;
[0039]缺陷实时检测模块,用于实时加载待检测图片,进行预处理后,使用训练好的语义分割网络模型对待检测图片中缺陷区域进行检测,并将检测结果进行显示。
[0040]根据本专利技术的第三方面,一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现所述的耳机罩缺陷检测方法的步骤。
[0041]根据本专利技术的第四方面,一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现所述的耳机罩缺陷检测方法的步骤。
[0042]本专利技术提供的技术方案具有以下有益效果:
[0043]本专利技术通过构建并训练语义分割网络Attention

UNet,属于深度学习方法,为耳机罩缺陷检测提供一种全新的方法,该方法不容易受环境、光照、生产工艺和噪声等多重因素的影响,鲁棒性较好,可以更准确、更精细的检测出缺陷的边本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种耳机罩缺陷检测方法,其特征在于,包括以下步骤:采集耳机罩表面样本,构造样本数据集,所述样本数据集包括正常样本和缺陷样本;采用局部亮度均衡算法对样本数据集进行预处理;构造深度卷积生成对抗网络DCGAN模型,对预处理后的缺陷样本进行扩充;将扩充生成的缺陷样本加入到初始的样本数据集中,作为新的样本数据集;构造语义分割网络模型,并输入新的样本数据集进行网络训练;实时加载待检测图片,进行预处理后,使用训练好的语义分割网络模型对待检测图片中缺陷区域进行检测,并将检测结果进行显示。2.根据权利要求1所述的耳机罩缺陷检测方法,其特征在于,所述采用局部亮度均衡算法对样本数据集进行预处理,包括:获取样本数据集中每个原像素点的灰度值为x
i
,计算每个原像素点的缩放比例X
i
,计算公式为:给定附加比例系数α,计算均衡后的灰度值X
out
,计算公式为:将每个原像素点的灰度值替换为均衡后的灰度值,即完成样本数据集的预处理。3.根据权利要求1所述的耳机罩缺陷检测方法,其特征在于,所述构造深度卷积生成对抗网络DCGAN模型,对预处理后的缺陷样本进行扩充,包括:a、训练判别器D:初始化判别器D的网络参数,利用训练集中的n个样本来训练判别器D;b、固定判别器D,训练生成器G:初始化生成器G的网络参数,利用高斯噪声使生成器G生成假图,使生成器G的能力不断提高,直到判别器D判断假图是否为假的概率为50%时停止;c、固定生成器G,训练判别器D:固定生成器G,然后开始训练判别器D,判别器D通过不断训练,直到可以准确的判断出所有的假图;d、循环步骤b和步骤c的过程,多次更新迭代后,理想状态下,最终判别器D无法区分图片是来自真实的缺陷样本集合,还是来自生成器G生成的缺陷样本,此时辨别正确的概率为50%;同时观察生成器G生成的缺陷样本质量来判断生成器G训练的结果是否符合要求,若符合要求,则训练完成,否则返回步骤b。4.根据权利要求1所述的耳机罩缺陷检测方法,其特征在于,所述语义分割网络是采用UNet作为主干网络,并加入了Attention机制,语义分割网络的输入和输出尺寸是一致的,语义分割网络包括:特征提取网络和上采样层,其中特征提取网络...

【专利技术属性】
技术研发人员:梅爽张家庆王贺堡吴承睿文国军
申请(专利权)人:中国地质大学武汉
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1