【技术实现步骤摘要】
一种像素增强的神经网络的改进难例挖掘训练方法及系统
本专利技术属于针对千万级像素图片的原尺寸图像增强的神经网络训练方法领域,尤其是涉及一种像素增强的神经网络的改进难例挖掘训练方法及系统。
技术介绍
在图像检测领域里,样本分布不均衡是一个重大技术难点,如果不采取针对性的训练方法,样本分布不均衡会导致训练出来的检测神经网络在某些少数类或者异常类(与其他类别的分布非常不一致)的检测性能下降。目前解决样本分布不均衡的方法有重新采样训练集(欠采样、过采样)、对不同类别样本的损失值按偏向或者类别数量加权、组合小类别样本和大类别样本训练,和本专利技术涉及的难例挖掘<TrainingRegion-basedObjectDetectorswithOnlineHardExam-pleMining>等。前三种方法有个前提是知道哪些样本是什么类别,这个类别有多少个,但在图像增强领域,并没有类别的信息,如一张图的亮度是过曝光或者曝光不足、颜色好看还是不好看是没有量化指标衡量的,完全由人的主观影响,唯一作为参考标准就是真实的增强图(一般由人修图得到)。所以最后一种方法-难例挖掘是目前唯一训练数据分布不均衡的图像增强神经网络的有效方法。原论文<TrainingRegion-basedObjectDetectorswithOnlineHardExampleMining>中提及的难例是针对图像检测神经网络设计的。原理是在每次神经网络训练迭代中,随机抽取N张样本,预测N张样本中物体的分类类别和检测框坐标,并与真实的分类类 ...
【技术保护点】
1.一种像素增强的神经网络的改进难例挖掘训练方法,其特征在于包括以下步骤:/nA.确定样本集:样本集由原图和增强图构成,每一张原图对应一张人工增强图;/nB.训练迭代:周期性训练样本集,一个训练迭代也就是一个训练周期;一次训练步骤包括:/n1.从样本集中随机抽取N对样本,对所述样本进行裁剪,得到裁剪集,从裁剪集中得到样本对应的N组裁剪集,根据初始化的损失记忆库的损失值记录,从每一组裁剪集中取得损失最大的一张裁剪小图,即得到N张裁剪小图和对应位置的真实裁剪增强图;/n2.将选取的N张裁剪小图经过神经网络正向传播得到N张裁剪预测图,计算裁剪预测图和对应位置的真实裁剪增强图的损失,将损失反向传播到神经网络中得到神经网络参数的梯度值,并由优化器重新计算神经网络的参数值;/n3.保存当前每一对选取的裁剪样本的损失值到损失记忆库,更新损失记忆库中对应裁剪小图的损失值;/n4.重复1)、2)、3)步骤直到样本都训练过一次,累加每次的损失得到迭代损失值;/nC.每一个迭代训练结束后得到当前迭代的累加损失值,记为当前迭代损失值,与历史迭代损失值的最小值比较;/nD.C步骤循环迭代直到达到收敛条件,即得能 ...
【技术特征摘要】
1.一种像素增强的神经网络的改进难例挖掘训练方法,其特征在于包括以下步骤:
A.确定样本集:样本集由原图和增强图构成,每一张原图对应一张人工增强图;
B.训练迭代:周期性训练样本集,一个训练迭代也就是一个训练周期;一次训练步骤包括:
1.从样本集中随机抽取N对样本,对所述样本进行裁剪,得到裁剪集,从裁剪集中得到样本对应的N组裁剪集,根据初始化的损失记忆库的损失值记录,从每一组裁剪集中取得损失最大的一张裁剪小图,即得到N张裁剪小图和对应位置的真实裁剪增强图;
2.将选取的N张裁剪小图经过神经网络正向传播得到N张裁剪预测图,计算裁剪预测图和对应位置的真实裁剪增强图的损失,将损失反向传播到神经网络中得到神经网络参数的梯度值,并由优化器重新计算神经网络的参数值;
3.保存当前每一对选取的裁剪样本的损失值到损失记忆库,更新损失记忆库中对应裁剪小图的损失值;
4.重复1)、2)、3)步骤直到样本都训练过一次,累加每次的损失得到迭代损失值;
C.每一个迭代训练结束后得到当前迭代的累加损失值,记为当前迭代损失值,与历史迭代损失值的最小值比较;
D.C步骤循环迭代直到达到收敛条件,即得能自动对原图进行图像增强的最优神经网络。
2.根据权利要求1所述的像素增强的神经网络的改进难例挖掘训练方法,其特征在于:所述步骤C中,若比最小值小则更新为迭代损失值最小值,保存神经网络参数为当前最优神经网络参数,反之则继续使用当前更新过参数的神经网络进行下一个训练迭代。
3.根据权利要求1所述的像素增强的神经网络的改进难例挖掘训练方法,其特征在于:所述步骤D中,收敛条件为等待K个迭代数仍未有最新的迭代损失最小值,K的值等于样本集最大裁剪数的3倍...
【专利技术属性】
技术研发人员:梁栋荣,
申请(专利权)人:杭州火烧云科技有限公司,
类型:发明
国别省市:浙江;33
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。