一种对象检测和分类网络结合的模型训练方法技术

技术编号:35587579 阅读:13 留言:0更新日期:2022-11-16 15:02
本发明专利技术属于检验模型训练领域,尤其涉及一种对象检测和分类网络结合的模型训练方法。所述方法包括:获取包含多个目标类型对象的上级训练样本图像集进行模型训练,包括上级模型训练和下级模型训练;所述上级模型训练为:设定若干检测单元并进行对象检测模型训练;所述下级模型训练为:以单个检测单元为集群,根据上级模型训练输出的真实目标截取上级训练样本图像集形成若干下级训练样本图像集并进行图像分类模型训练。本发明专利技术模型训练方法所得的双网络模型能够有效用于组装缺陷的检测,训练过程对于设备的需求较低,无需进行繁杂的模型计算,并且通过合理化的训练布置使得模型训练十分高效。分高效。分高效。

【技术实现步骤摘要】
一种对象检测和分类网络结合的模型训练方法


[0001]本专利技术属于检验模型训练领域,尤其涉及一种对象检测和分类网络结合的模型训练方法。

技术介绍

[0002]对象检测、图像分类网络均是发展较为成熟的、用于组装缺陷检测等领域的网络。常见的对象检测网络包括有ResNet、Yolo和SSD等网络,而同样图像分类网络也包括有CNN等多种类型。上述的对象检测网络以及图像分类网络均有较高的适用性,但也均有使用上的弊端,各取其中一者为例。
[0003]SSD(Single Shot MultiBox Detector)对象检测网络是一种成熟的目标检测方法,是现有主要使用的检测框架之一,同时其模型训练方法也相对成熟。SSD检测网络能够精确地实现目标对象的真实位置检测,识别图像中的真实目标。但是对于高分辨率的检测目标,SSD网络监测通常只能够定位并识别较大趋于的对象,对于小象不能进行有效、高效的检测,导致其检测精度低或会导致其检测效率产生断崖式下降。
[0004]而基于CNN(Convolutional Neural Network)的图像分类网络则是另一种成熟的对象分类方法,其模型训练方法十分成熟。CNN检测网络能够在小范围内或针对局部的小对象通过对比实现快速分类,用于检测时能够通过对比实现快速的OK/NG分类,但其对于大范围的分类检测,其出错率高等缺陷。
[0005]上述SSD检测网络和CNN检测网络目前均各自独立地用于对象/图像的识别和分类,两者并未有结合使用的情况和实际技术。但是经过研究发现,在用于大面积、高精度要求的设备、器件组装缺陷进行检测时,单独采用SSD对象检测网络或存在检测精度底下、检测效率极低的问题,甚至精度、效率均远不及人工检测。而同样,单独采用CNN图像分类网络对大面积、高精度要求的设备、期间进行组装缺陷检测时,同样存在精度底下的问题。
[0006]因此,如何合理通过检测网络并对其进行模型训练使其能够用于大面积、高精度要求的设备、器件组装缺陷检测,是目前智能检测领域的一大研究热点。

技术实现思路

[0007]为解决现有的智能识别检测系统通常单独采用SSD对象检测网络或CNN图像分类网络,或采用其余的识别检测网络,对高精度要求的大设备进行组装缺陷检测时存在检测精度低下和/或检测效率底下的问题,本专利技术提供了一种对象检测和分类网络结合的模型训练方法。
[0008]本专利技术的目的在于:一、通过双网络的结合进行模型训练,使得训练后的模型能够对高精度要求的大设备进行组装缺陷检测;二、提高模型的训练效率并且提高模型运用于实际识别检测时的检测效率;三、确保模型训练精度。
[0009]为实现上述目的,本专利技术采用以下技术方案。
[0010]一种对象检测和分类网络结合的模型训练方法,所述方法包括:利用以下步骤进行迭代训练,直至满足模型训练的要求;获取上级训练样本图像集进行模型训练,模型训练包括上级模型训练和下级模型训练,所述上级训练样本图像集中的训练图像样本包含多个目标类型对象;所述上级模型训练为:设定若干检测单元并进行对象检测模型训练;所述下级模型训练为:以单个检测单元为集群,根据上级模型训练输出的真实目标截取上级训练样本图像集形成若干下级训练样本图像集并进行图像分类模型训练;所述模型训练的要求为准确率≥95%,达到模型训练的要求后输出模型。
[0011]作为优选,所述上级模型训练为:输入上级训练样本图像集进行对象检测模型训练,设定训练图像样本的若干检测单元并计算输出每个检测单元的真实目标;所述对象检测模型训练前进行先验匹配训练。
[0012]作为优选,所述先验匹配训练为:设定训练图像样本的检测单元并对每个单元设置若干先验框,根据给定的训练图像样本和每个单元的先验框,设置每个训练图像样本的每个单元对应的边界框;所述先验框和边界框对比输出检测值,所述检测值为置信度和/或评分;根据检测值输出用于确定先验框和边界框相对位置的预测值;所述预测值用于快速预测真实目标。
[0013]作为优选,所述上级训练样本图像集的每个单元至少设有一个边界框。
[0014]作为优选,所述上级训练样本图像集分类为若干正位图像集和错位图像集;所述正位图像集中的训练图像样本为正位拍摄且视图完整的训练图像样本;所述错位图像集中的训练图像样本为斜角拍摄和/或视图缺失的训练图像样本。
[0015]作为优选,每个所述正位图像集形成独立的先验匹配训练结果;每个所述错位图像集形成独立的先验匹配训练结果。
[0016]作为优选,所述下级模型训练为:获取上级训练样本图像集真实目标结果并对应每个真实目标图像形成对应的若干下级训练样本图像集,所述下级训练样本图像集通过特征提取器从固定区域提取图像形成各自独立的子图像特征集,所述图像分类网络包含分类器,所述分类器用于对子图像特征集进行分类并且根据置信度和/或评分标记分类;所述特征提取器为独立的截图工具或包含在所述图像分类网络内。
[0017]作为优选,所述上级模型训练和/或下级模型训练在单个模型训练中重复和/或穿
插进行多次,根据分辨率和/或模型训练目标进行设定重复和/或穿插次数及顺序。
[0018]作为优选,所述单个模型训练进程中第一步为上级模型训练、最后一步为下级模型训练。
[0019]作为优选,所述上级训练样本图像集用于上级模型训练时进行降分辨率处理;所述下级模型训练获取真实目标后从原分辨率的上级训练样本图像集中截取图像形成下级训练样本图像集。
[0020]本专利技术的有益效果是:本专利技术模型训练方法所得的双网络模型能够有效用于组装缺陷的检测,并且根据不同的需求可进行适应性的调整,对于设备的需求较低,无需进行繁杂的模型计算,降低实际模型训练的设备要求,并且通过合理化的训练布置使得模型训练十分高效,利用SSD对象检测模型进行快速定位截取下级图像并通过CNN图像分类模型对所截取的下级图像进行有效的分类识别,以实现双网络的共用和协同,训练所得的双网络模型用于组装缺陷识别检测时具有高精度、高效率的特点。
附图说明
[0021]图1为本专利技术模型训练方法的主要框架图;图2为从上级模型训练和下级模型训练的图像转化及归类过程分解示意图;图3为本专利技术先验匹配训练示意图;图中:S1上级训练样本图像集,S101上级训练样本图像集分类,S2图像缩放,S2014K分辨率高清原图,S202对象检验模型训练图,S3等比映射,S301标记模型图,S302标记高清原图,S3021检测单元1,S3022检测单元2,S4下级训练样本图像集,S5特征提取,S501区域A,S502区域B,S503区域C,S504区域D,S505区域E,S506区域F,S507区域G,S6子图像特征集,S2001a第一先验框,S2001b第二先验框,S2001c第三先验框,S2002检测单元,S2003边界框。
具体实施方式
[0022]以下结合具体实施例和说明书附图对本专利技术作出进一步清楚详细的描述说明。本领域普通技术人员在基于这些说明的情况本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种对象检测和分类网络结合的模型训练方法,其特征在于,所述方法包括:利用以下步骤进行迭代训练,直至满足模型训练的要求;获取上级训练样本图像集进行模型训练,模型训练包括上级模型训练和下级模型训练,所述上级训练样本图像集中的训练图像样本包含多个目标类型对象;所述上级模型训练为:设定若干检测单元并进行对象检测模型训练;所述下级模型训练为:以单个检测单元为集群,根据上级模型训练输出的真实目标截取上级训练样本图像集形成若干下级训练样本图像集并进行图像分类模型训练;所述模型训练的要求为准确率≥95%,达到模型训练的要求后输出模型。2.根据权利要求1所述的一种对象检测和分类网络结合的模型训练方法,其特征在于,所述上级模型训练为:输入上级训练样本图像集进行对象检测模型训练,设定训练图像样本的若干检测单元并计算输出每个检测单元的真实目标;所述对象检测模型训练前进行先验匹配训练。3.根据权利要求2所述的一种对象检测和分类网络结合的模型训练方法,其特征在于,所述先验匹配训练为:设定训练图像样本的检测单元并对每个单元设置若干先验框,根据给定的训练图像样本和每个单元的先验框,设置每个训练图像样本的每个单元对应的边界框;所述先验框和边界框对比输出检测值,所述检测值为置信度和/或评分;根据检测值输出用于确定先验框和边界框相对位置的预测值;所述预测值用于快速预测真实目标。4.根据权利要求3所述的一种对象检测和分类网络结合的模型训练方法,其特征在于,所述上级训练样本图像集的每个单元至少设有一个边界框。5.根据权利要求2或3或4所述的一种对象检测和分类网络结合的模型训练方法,其特征在于,所述上级训练样...

【专利技术属性】
技术研发人员:吴勇明金昆陈烨
申请(专利权)人:玳能科技杭州有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1