一种基于多级对抗网络的布匹瑕疵图像高保真增广方法技术

技术编号:38920569 阅读:13 留言:0更新日期:2023-09-25 09:31
本发明专利技术公开了一种基于多级对抗网络的布匹瑕疵图像高保真增广方法。获取若干布匹瑕疵图像,将布匹瑕疵图像进行分类归档和类型标签数据记录构建图像数据集合,再构建图像训练数据集合,所述训练数据为每一类瑕疵样本图像和其对应的类型标签数据;设计包括多级生成子网络和鉴别子网络的多级对抗网络结构,使用图像训练数据集合训练,利用训练后的多级对抗网络结构中生成合成布匹瑕疵图像,再将加入到图像数据集合中进行增广处理。本发明专利技术图像数据增广效果好,能有效高保真合成布匹不同姿态和复杂纹理的瑕疵,克服单一成像瑕疵样本采集效率低的问题,具有较大应用价值。具有较大应用价值。具有较大应用价值。

【技术实现步骤摘要】
一种基于多级对抗网络的布匹瑕疵图像高保真增广方法


[0001]本专利技术涉及计算机视觉图像处理方法,具体涉及一种基于多级对抗网络的布匹瑕疵图像高保真增广方法。

技术介绍

[0002]布匹瑕疵检测质量管理是提升我国纺织业国际市场竞争力的重要环节之一。在纺织品生产过程中,缺陷样本图像收集和精准标注图像数据集是一个极其费时和昂贵的过程,一方面需要生产厂商工艺质量质检专业人员配合采集鉴定,也会干扰企业正常生产工时计划。
[0003]现有常规图像增广技术(镜像、旋转、偏移等)逐步应用在机器学习技术中,但是并不适用布匹复杂背景纹理下的表面质量检测的场景中,因为表面瑕疵精准检测是基于纺织生产工序环节的客观质量工艺标准,粗犷的图像数据增广会引入额外的噪音并偏离实际生产质量工艺数据产生的客观条件,导致图像数据增加但是图像质量降低,图像算法难以获得表面质量检测工艺为标准的最优匹配参数,从而极易产生瑕疵检测误检现象。

技术实现思路

[0004]为了解决布匹不同瑕疵样本收集效率低导致检测效果差的问题,本专利技术的目的在于提供一种基于多级对抗网络的布匹瑕疵图像高保真增广方法,相比人工采集缺陷样本和常规图像增广方法比,瑕疵数据构建效率更高,支持布匹瑕疵检测类型更多以及对象实用性更广。
[0005]本专利技术技术就是以
技术介绍
的需求为出发点展开的,因此具有良好的市场前景,提高了纺织品生成样本中背景的纹理一致性,在以人工采集小样本基础上实现纺织品表面缺陷图像高保真合成,构建有效增广训练样本集。
[0006]本专利技术所采用技术方案包括如下步骤:
[0007]1)获取若干布匹瑕疵图像;
[0008]2)将步骤1)的布匹瑕疵图像进行每一种瑕疵图像类型分类归档和类型标签数据记录,构建图像数据集合;
[0009]3)将步骤2)的图像数据集合构建图像训练数据集合,所述训练数据为每一类瑕疵样本图像和其对应的类型标签数据;
[0010]4)设计用于布匹瑕疵图像高保真增广的多级对抗网络结构,多级对抗网络结构包括多级生成子网络和鉴别子网络,使用步骤2)的图像训练数据集合进行训练,完成训练后获取网络连接权重矩阵G;
[0011]【所述网络连接权重矩阵G为多级对抗网络结构中的网络模型权重参数。】
[0012]5)将随机生成的随机值图像输入步骤4)训练后的多级对抗网络结构中生成合成布匹瑕疵图像,再将加入到图像数据集合中进行增广处理。
[0013]所述步骤2)的具体步骤如下:
[0014]2.1)将步骤2)的布匹瑕疵图像根据布匹瑕疵类型分为一类瑕疵图像类型,进行分类归档和类型标签数据记录;
[0015]2.2)图像训练数据集合由每一类瑕疵样本图像和其对应的类型标签数据构成。
[0016]【类型标签数据具体是指缺陷的类型。】
[0017]所述步骤4)中,所述的多级对抗网络的拓扑结构包括依次连接的多级生成子网络和鉴别子网络;
[0018]所述的多级生成子网络包括十二个子模块、三个图像压缩单元和三个采集模块构成,将随机值图像先输入到第一个图像压缩单元处理获得第一压缩特征图,将第一压缩特征图依次经第一个子模块、第二个子模块、第七个子模块和第八个子模块后获得第一增强特征图,将第一压缩特征图和第一增强特征图共同输入到第一个采集模块;
[0019]第一个采集模块的输出和原始的输入图像一起输入到第二个图像压缩单元处理获得第二压缩特征图,将第二压缩特征图依次经第三个子模块、第四个子模块、第九个子模块和第十个子模块后获得第二增强特征图,将第二压缩特征图和第二增强特征图共同输入到第二个采集模块;
[0020]第二个采集模块的输出和原始的输入图像一起输入到第二个图像压缩单元处理获得第三压缩特征图,将第三压缩特征图依次经第五个子模块、第六个子模块、第十一个子模块和第十二个子模块后获得第三增强特征图,将第三压缩特征图和第三增强特征图共同输入到第三个采集模块;
[0021]第三个采集模块输出合成布匹瑕疵图像作为多级生成子网络的输出。
[0022]【所述的随机值图像是随机生成。】
[0023]第一个、第二个、第三个、第四个、第五个和第六个子模块均主要由一个卷积单元和一个批量归一化单元依次连接构成;
[0024]第七个、第八个、第九个、第十个、第十一个和第十二个子模块均主要由一个转置卷积单元和一个批量归一化单元依次连接构成;
[0025]每个采集模块均主要由一个连接层和一个上采集层依次连接构成。
[0026]所述的鉴别子网络包括子模块和Sigmoid函数,将多级生成子网络输出的合成布匹瑕疵图像与和原始输入图像对应的真实布匹瑕疵图像共同输入到经第二个子模块、Sigmoid函数处理后输出图像相似度,第二个子模块主要由连续五个卷积单元依次连接构成。
[0027]训练时,将步骤2)的图像训练数据集合输入到多级对抗网络的输入层,采用鉴别交叉熵损失函数训练多级对抗网络,直到多级对抗网络中鉴别子网络输出的图像相似度达到最高完成收敛,获得完成训练后的网络连接权重矩阵G。
[0028]所述步骤5)中,训练后的多级对抗网络为已载入网络连接权重矩阵G的多级生成子网络。
[0029]本专利技术具有的有益效果是:
[0030]1)本专利技术对缺陷图像高保真增广提高瑕疵数据特征提取效率从而提升了布匹瑕疵检测的能力,同时也有效避免了现场布匹瑕疵数据采集效率低和瑕疵样本类型数据分布不均匀导致算法检测能力无法短时间提升的难题。
[0031]2)本专利技术方法应用对象较广,方法简便易于实现,在布匹及纺织行业计算机视觉
在线检测方面具有较大的应用潜力。
[0032]本专利技术图像数据增广效果好,能有效高保真合成布匹不同姿态和复杂纹理的瑕疵,克服单一成像瑕疵样本采集效率低的问题,具有较大应用价值。
附图说明
[0033]图1是本专利技术方法的流程图。
[0034]图2是本专利技术方法的多级对抗网络中的多级生成子网络结构图。
[0035]图3是本专利技术方法的多级对抗网络中的鉴别子网络结构图。
[0036]图4是本专利技术实施例1中的原始图像。
[0037]图5是本专利技术实施例1中的产生图像增广结果图。
[0038]图6是布匹瑕疵粗结纱原始图。
[0039]图7是布匹瑕疵粗结纱的产生图像增广结果图。
具体实施方式
[0040]下面结合附图和具体实施例对本专利技术作进一步的说明。
[0041]如图1所示,本专利技术的的实施过程如下:
[0042]本专利技术所采用技术方案包括如下步骤:
[0043]1)获取【一定数量的】若干布匹瑕疵图像;
[0044]2)将步骤1)的布匹瑕疵图像进行每一种瑕疵图像类型分类归档和类型标签数据记录,构建图像数据集合;
[0045]2.1)将步骤2)的布匹瑕疵图像根据布匹瑕疵类型分为一类瑕疵图像类型,进行分类归档和类型标签数据记录;
[00本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于多级对抗网络的布匹瑕疵图像高保真增广方法,其特征在于,该方法包括如下步骤:1)获取若干布匹瑕疵图像;2)将步骤1)的布匹瑕疵图像进行每一种瑕疵图像类型分类归档和类型标签数据记录,构建图像数据集合;3)将步骤2)的图像数据集合构建图像训练数据集合,所述训练数据为每一类瑕疵样本图像和其对应的类型标签数据;4)设计用于布匹瑕疵图像高保真增广的多级对抗网络结构,多级对抗网络结构包括多级生成子网络和鉴别子网络,使用步骤2)的图像训练数据集合进行训练,完成训练后获取网络连接权重矩阵G;5)将随机生成的随机值图像输入步骤4)训练后的多级对抗网络结构中生成合成布匹瑕疵图像,再将加入到图像数据集合中进行增广处理。2.根据权利要求1所述的基于多级对抗网络的布匹瑕疵图像高保真增广方法,其特征在于:所述步骤2)的具体步骤如下:2.1)将步骤2)的布匹瑕疵图像根据布匹瑕疵类型分为一类瑕疵图像类型,进行分类归档和类型标签数据记录;2.2)图像训练数据集合由每一类瑕疵样本图像和其对应的类型标签数据构成。3.根据权利要求1所述的基于多级对抗网络的布匹瑕疵图像高保真增广方法,其特征在于:所述步骤4)中,所述的多级对抗网络的拓扑结构包括依次连接的多级生成子网络和鉴别子网络;所述的多级生成子网络包括十二个子模块、三个图像压缩单元和三个采集模块构成,将随机值图像先输入到第一个图像压缩单元处理获得第一压缩特征图,将第一压缩特征图依次经第一个子模块、第二个子模块、第七个子模块和第八个子模块后获得第一增强特征图,将第一压缩特征图和第一增强特征图共同输入到第一个采集模块;第一个采集模块的输出和原始的输入图像一起输入到第二个图像压缩单元处理获得第二压缩特征图,将第二压缩特征图依次经第三个子模块、第四个子模块、第九个子模块和第十个子模块后获得第二...

【专利技术属性】
技术研发人员:容典裴翔
申请(专利权)人:杭州国辰机器人科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1