一种分类模型训练方法和一种分类模型训练装置制造方法及图纸

技术编号:29092624 阅读:16 留言:0更新日期:2021-06-30 10:00
本发明专利技术公开了一种分类模型训练方法和一种分类模型训练装置。该方法包括:从训练集中抽取部分样本作为初始训练集,用初始训练集训练分类模型;若得到的分类模型未达到预期效果,则根据分类模型对训练集的分类结果,更新当前初始训练集,更新方式包括:向初始训练集中加入至少部分分类错误的样本,和/或,从初始训练集中剔除部分分类正确的样本;利用更新后的初始训练集重新训练分类模型,直至分类模型达到预期效果或直至满足训练结束条件。本申请根据每次训练后分类模型对训练集的分类结果,分批次向初始训练集中添加分类错误的样本,和/或剔除分类正确的样本,可逐渐优化训练效果,克服类别之间样本不平衡问题,训练速度更快,且训练结果更佳。且训练结果更佳。且训练结果更佳。

【技术实现步骤摘要】
一种分类模型训练方法和一种分类模型训练装置


[0001]本专利技术涉及机器学习
,特别涉及一种分类模型训练方法和一种分类模型训练装置。

技术介绍

[0002]随着深度学习的发展,AI(Artificial Intelligence,人工智能)在智能制造领域的作用越来越大,例如,在很多实际工程部署当中,AI在质量把控、缺陷检测方面起到了巨大的作用。
[0003]但是,在现有的工业大数据背景下,一次AI训练所需要的数据集越来越大,并且类别之间不平衡,往往一个数据集有几千到几万张图片,其中,有的类别会有几千张图,有的类别却只有几十张,差距在一到两个数量级。在这种特征下,带来了两个问题,一是:大数据集下训练时间会较长,数据集越大,训练时间越长。二是类别之间的不平衡,容易造成模型对分类的侧重不同,导致模型训练结果不好。

技术实现思路

[0004]鉴于现有技术分类模型的训练集数据多、类别间不平衡,导致训练时间长和训练结果不佳的问题,提出了本申请的一种分类模型训练方法和一种分类模型训练装置,以便克服上述问题。
[0005]为了实现上述目的,本申请采用了如下技术方案:
[0006]依据本申请的一个方面,提供了一种分类模型训练方法,该方法包括:
[0007]从训练集中抽取部分样本作为初始训练集,用初始训练集训练分类模型;
[0008]若得到的分类模型未达到预期效果,则根据分类模型对训练集的分类结果,更新当前初始训练集,更新方式包括:向初始训练集中加入至少部分分类错误的样本,和/或,从初始训练集中剔除部分分类正确的样本;
[0009]利用更新后的初始训练集重新训练分类模型,直至分类模型达到预期效果或直至满足训练结束条件。
[0010]可选地,从训练集中抽取部分样本作为初始训练集,包括:
[0011]以训练集中数量最少的一类负样本的样本个数为基准,按照预设比例分别选取相同数量的各类负样本,形成初始训练集的负样本集合。
[0012]可选地,从训练集中抽取部分样本作为初始训练集,还包括:
[0013]从训练集中选取部分正样本与负样本集合共同组成初始训练集,正样本在初始训练集中的占比不超过一半。
[0014]可选地,向初始训练集中加入至少部分分类错误的样本,包括:
[0015]从初始训练集以外的训练集样本中,挑选至少部分分类错误的样本加入初始训练集中;
[0016]若分类错误的样本中各类负样本间的样本个数差异小于预设标准,则将全部分类
错误的负样本加入初始训练集中;
[0017]若差异不小于预设标准,则以数量最少的一类负样本的样本个数为基准,或者,以预设的固定数量为基准,挑选相应数量的各类负样本加入初始训练集中。
[0018]可选地,以数量最少的一类负样本的样本个数为基准,挑选相应数量的各类负样本加入初始训练集中,包括:以数量最少的一类负样本的样本个数为基准,按照预设比例分别选取相同数量的各类负样本,加入初始训练集中;
[0019]以预设的固定数量为基准,挑选相应数量的各类负样本加入初始训练集中,包括:按照预设的固定数量挑选各类负样本,加入初始训练集中,其中,若分类错误的样本中某类负样本的数量不足,则以分类正确的该类负样本补充。
[0020]可选地,向初始训练集中加入至少部分分类错误的样本,还包括:
[0021]根据所加入的分类错误的负样本的总量,从初始训练集以外的训练集样本中,按照预设比例选取相应数量的分类错误的正样本加入初始训练集中,若分类错误的样本中一分类正样本的数量不足,则以该分类下分类正确的正样本补充。
[0022]可选地,从初始训练集中剔除部分分类正确的样本,包括:
[0023]从初始训练集的每一类样本中,筛选出分类正确且置信度大于预设值的样本,按照相同的预设比例将筛选出的样本部分剔除。
[0024]可选地,直至满足训练结束条件包括:
[0025]设置训练分类模型的最大训练次数,当训练次数达到最大训练次数时,停止训练。
[0026]可选地,方法还包括:
[0027]在每次更新初始训练集后,检验初始训练集中的负样本数量,若某一类负样本的数量超过负样本总量的预设比例,则剔除一部分该类负样本,使该类负样本数量不超过负样本数量总数的预设比例。
[0028]依据本申请的另一个方面,提供了一种分类模型训练装置,分类模型训练装置包括处理器;以及被安排成存储计算机可执行指令的存储器,可执行指令在被执行时使处理器执行如上任一分类模型训练方法。
[0029]综上所述,本申请的有益效果是:
[0030]本申请通过在训练过程中不断更新调整初始训练集来优化分类模型的训练效果,根据前次训练所得分类模型对训练集的分类结果,向初始训练集中添加分类错误的样本,和/或,剔除分类正确的样本,可以逐渐优化训练效果,克服各类别间样本不平衡问题,训练速度更快,且训练结果更佳。
附图说明
[0031]图1为本申请一个实施例提供的一种分类模型训练方法步骤示意图;
[0032]图2为本申请一个实施例提供的一种分类模型训练方法流程示意图;
[0033]图3为本申请一个实施例提供的一种分类模型训练装置结构示意图;
[0034]图4为本申请另一个实施例提供的一种分类模型训练装置结构示意图。
具体实施方式
[0035]为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方
式作进一步地详细描述。
[0036]在本申请的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
[0037]在本申请的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本申请中的具体含义。
[0038]本申请的技术构思是:在训练过程中,通过不断更新调整初始训练集来优化分类模型的训练效果,根据前次训练的分类模型对训练集的分类结果,向初始训练集中添加分类错误的样本,和/或,剔除分类正确的样本,可以逐渐优化训练效果,克服各类别间样本不平衡问题,训练速度更快,且训练结果更佳。
[0039]图1为本申请一个实施例提供的一种分类模型训练方法步骤示意图。如图1所示,该分类模型训练方法,包括:
[0040]步骤S110,从训练集中本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种分类模型训练方法,其特征在于,该方法包括:从训练集中抽取部分样本作为初始训练集,用所述初始训练集训练分类模型;若得到的分类模型未达到预期效果,则根据所述分类模型对所述训练集的分类结果,更新当前初始训练集,更新方式包括:向所述初始训练集中加入至少部分分类错误的样本,和/或,从所述初始训练集中剔除部分分类正确的样本;利用更新后的初始训练集重新训练所述分类模型,直至所述分类模型达到预期效果或直至满足训练结束条件。2.根据权利要求1所述的分类模型训练方法,其特征在于,所述从训练集中抽取部分样本作为初始训练集,包括:以所述训练集中数量最少的一类负样本的样本个数为基准,按照预设比例分别选取相同数量的各类负样本,形成所述初始训练集的负样本集合。3.根据权利要求2所述的分类模型训练方法,其特征在于,所述从训练集中抽取部分样本作为初始训练集,还包括:从所述训练集中选取部分正样本与所述负样本集合共同组成所述初始训练集,所述正样本在所述初始训练集中的占比不超过一半。4.根据权利要求1所述的分类模型训练方法,其特征在于,所述向所述初始训练集中加入至少部分分类错误的样本,包括:从所述初始训练集以外的训练集样本中,挑选至少部分分类错误的样本加入所述初始训练集中;若分类错误的样本中各类负样本间的样本个数差异小于预设标准,则将全部分类错误的负样本加入所述初始训练集中;若差异不小于预设标准,则以数量最少的一类负样本的样本个数为基准,或者,以预设的固定数量为基准,挑选相应数量的各类负样本加入所述初始训练集中。5.根据权利要求4所述的分类模型训练方法,其特征在于,以数量最少的一类负样本的样本个数为基准,挑选相应数量的各类负样本加入所述初始训练集中,包括:以数量最少的一类负样本的样本个数为基准,按照预设比例分别选取相...

【专利技术属性】
技术研发人员:邸顺然
申请(专利权)人:歌尔股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1