一种基于FasterR-CNN网络的衬衣袖口工艺识别方法技术

技术编号:33640257 阅读:12 留言:0更新日期:2022-06-02 01:59
本发明专利技术提供了一种基于Faster R

【技术实现步骤摘要】
一种基于Faster R

CNN网络的衬衣袖口工艺识别方法


[0001]本专利技术涉及服装缝制领域,具体涉及一种基于Faster R

CNN网络的衬衣袖口工艺识别方法。

技术介绍

[0002]随着互联网技术的不断发展,人工智能和数字化成为许多行业领域未来发展的趋势,现代化的企业逐渐从劳动密集型向技术密集型转型。在“多款式、小批量、短周期”的服装生产环境下,为了适应市场变化,提升快速反应能力,服装企业向智能化智造转型升级成为必然要求。企业在生产一批服装前,需要对该批服装样衣的工艺进行分析,把每道工序的缝制信息录入系统中形成服装工艺报表,再通过人工讲解的方式对缝纫工进行缝制培训。传统人工分析样衣工艺的方式要求分析者熟练掌握服装缝制技术,并且能够准确表述缝制工序信息。分析者分析整件服装工艺的过程比较复杂,会进行大量重复操作,耗时较长。这不仅对管理人员技术依赖度较高,而且会延长服装的生产周期、降低生产效率。

技术实现思路

[0003]针对目前在服装生产过程中传统人工分析样衣工艺存在的问题,本专利技术提供了一种基于Faster R

CNN网络的衬衣袖口工艺识别方法。该方法是将待识别衬衣的反面图像输入至基于Faster R

CNN网络的衬衣袖口工艺识别模型获得衬衣袖口工艺识别结果。该模型包括:初步分类模块、截取袖口部位图像模块和精确分类模块。通过初步分类模块获得衬衣袖口部位的定位和对应缝制工艺的初步分类,利用该结果对识别出的衬衣袖口部位图像进行截取,并将其输入到该系统的精确分类模块中,最终得到衬衣袖口对应缝制工艺的精确分类,并获得相应的缝制流程并配有详细的缝制过程图解。
[0004]本专利技术解决其技术问题所采用的技术方案是:一种基于Faster R

CNN网络的衬衣袖口工艺识别方法,该方法通过将待识别衬衣的反面图像输入至基于Faster R

CNN网络的衬衣袖口工艺识别模型获得衬衣袖口工艺识别结果。所述基于Faster R

CNN网络的衬衣袖口工艺识别模型包括:初步分类模块、截取袖口部位图像模块和精确分类模块。其中初步分类模块使用Faster R

CNN网络,其输出与截取袖口部位图像模块的输入连接,截取袖口部位图像模块的输出与精确分类模块的输入连接。所述初步分类模块,通过提取输入的待识别衬衣图像的特征,对衬衣袖口部位工艺进行初步识别和定位。截取袖口部位图像模块,用于依据衬衣袖口部位定位信息对图像进行截取,并将截取的图像输入至精确分类模块。精确分类模块,用于提取截取的衬衣袖口图像特征,并对其工艺进行精确识别分类。
[0005]进一步地,所述基于Faster R

CNN网络的衬衣袖口工艺识别模型通过如下方法训练获得:
[0006](1)获取衬衣的反面图像,对图像进行预处理,建立衬衣数据集,人工标注衬衣图像袖口部位定位信息与对应的缝制工艺分类结果;所述缝制工艺分类包括初步分类结果和基于初步分类结果进行二次分类的精确分类结果。
[0007](2)冻结精确分类模块,将衬衣反面图像作为输入,以初步分类模块的输出为输出,对模型进行第一次训练;将衬衣反面图像作为输入,经过初步分类模块定位衬衣部位和初步识别相应工艺,截取袖口部位图像模块根据衬衣袖口定位信息截取衬衣袖口部位图像,以精确分类模块的输出为输出,对模型进行第二次训练,获得训练好的模型。
[0008]进一步地,所述步骤(1)中,对图像进行预处理包括:对图像预处理是将采集到的图像尺寸归一化处理。
[0009]进一步地,所述步骤(1)中,对图像进行预处理包括:对图像沿着顺时针和逆时针方向分别旋转90度,180度,270度保存扩充数据集。
[0010]进一步地,将衬衣袖口工艺分为袖衩为宝箭头式带袖克夫、袖衩为滚边式带袖克夫、袖衩为贴边式带袖克夫、袖衩为滚边式无袖克夫、袖衩为贴边式无袖克夫。
[0011]进一步地,在模型中,所述初步分类模块是利用Faster R

CNN网络,包括主干网络,与主干网络连接的RPN网络和ROI Align,以及与RPN网络、ROI Align分别连接的全连接层。所述主干网络为VGG16。初步分类模块是利用主干网络为VGG16的Faster R

CNN网络,利用RPN生成区域建议候选框,通过ROI得到特征向量,利用ROI Align可以得到坐标为浮点数的像素点上的图像数值,从而将整个特征聚集过程变为连续性操作,提升检测模型的准确性。
[0012]进一步地,精确分类模块包括初步分类模块的VGG16网络和多个卷积层构成的特征提取网络、多层感知机,利用多层感知机实现衬衣袖口工艺的精确分类,裁剪模块的局部图像作为精确模块的输入,提升了模型的识别准确率。
[0013]与现有技术相比,本专利技术具有以下有益效果:基于Faster R

CNN网络构建循环结构的网络模型识别出衬衣袖口工艺,通过利用Faster R

CNN网络的初步分类模块获得袖口的定位和对应缝制工艺的初步分类,利用该结果对识别出的袖口图像进行截取,并将其输入到该系统的精确分类模块中,通过二次分类提高了目标识别的准确性,最终得到袖口对应缝制工艺的精确分类,并输出对应袖口的缝制流程并配有详细的缝制过程图解。将样衣工艺的分解智能化,降低企业对管理人员技能依赖度,提高企业生产效率,促进服装行业向智能制造转型升级,使服装企业快速适应现在市场环境。
附图说明
[0014]此处的说明附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。
[0015]图1为基于Faster R

CNN网络的衬衣袖口工艺识别模型结构图;
[0016]图2为本专利技术的衬衣袖口工艺识别方法流程图;
[0017]图3为本专利技术实施例衬衣袖口工艺流程图。
具体实施方式
[0018]为了说明本专利技术的目的、技术方案及优点,本专利技术中实施例为宝箭头袖衩带袖克夫的常见款衬衣,并结合附图进行详细说明。应当理解,此处所描述的具体实例仅用以解释本专利技术,并不用于限定本专利技术。
[0019]本专利技术提供了基于Faster R

CNN网络的衬衣袖口工艺识别方法,该方法通过将待
识别衬衣的反面图像输入至基于Faster R

CNN网络的衬衣袖口工艺识别模型获得衬衣袖口工艺识别结果,所述基于Faster R

CNN网络的衬衣袖口工艺识别模型是基于Faster R

CNN网络构建循环结构的网络模型,该模型有初步分类模块、截取袖口部位图像模块和精确分类模块。其中初步分类模块使用Faster R

CNN网络,其输出与截取袖口部本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于Faster R

CNN网络的衬衣袖口工艺识别方法,其特征在于,该方法通过将待识别衬衣的反面图像输入至基于Faster R

CNN网络的衬衣袖口工艺识别模型,获得衬衣袖口工艺识别结果。所述基于Faster R

CNN网络的衬衣袖口工艺识别模型包括:初步分类模块、截取袖口部位图像模块和精确分类模块。其中初步分类模块使用Faster R

CNN网络,其输出与截取袖口部位图像模块的输入连接,截取袖口部位图像模块的输出与精确分类模块的输入连接。所述初步分类模块,通过提取输入的待识别衬衣图像的特征,对衬衣袖口部位工艺进行初步识别和定位。截取袖口部位图像模块,用于依据衬衣袖口部位定位信息对图像进行截取,并将截取的图像输入至精确分类模块。精确分类模块,用于提取截取的衬衣袖口图像特征,并对其工艺进行精确识别分类。2.根据权利要求1所述的方法,其特征在于,所述基于Faster R

CNN网络的衬衣袖口工艺识别模型通过如下方法训练获得:(1)获取衬衣的反面图像,对图像进行预处理,建立衬衣数据集,人工标注衬衣图像袖口部位定位信息与对应的缝制工艺分类结果;所述缝制工艺分类包括初步分类结果和基于初步分类结果进行二次分类的精确分类结果。(2)冻结精确分类模块,将衬...

【专利技术属性】
技术研发人员:王青云刘正侯珏张怡刘冰
申请(专利权)人:杭州中服科创研究院有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1