System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 基于生成模型的小样本图像数据增强方法、系统与计算机可读介质技术方案_技高网

基于生成模型的小样本图像数据增强方法、系统与计算机可读介质技术方案

技术编号:40830802 阅读:2 留言:0更新日期:2024-04-01 14:53
本发明专利技术提供一种基于生成模型的小样本图像数据增强方法、系统与计算机可读介质,该数据增强方法包括:利用商用大规模图像数据集训练一生成式模型,获得第一生成模型;利用小样本图像数据集对第一生成模型进行微调,使得第一生成模型学习小样本图像数据集的独特特征,获得第二生成模型;根据小样本图像数据集中每一类别的数据量,确定增强数据的预设目标;连续随机采样获得高斯随机向量,并将高斯随机向量输入第二生成模型,得到一个生成的图像数据作为增强数据,更新到小样本图像数据集中,直到小样本图像数据集的规模达到预设目标。通过本发明专利技术的数据增强方法可有效提高数据集的平衡性,减少样本不平衡现象,提高分类准确率。

【技术实现步骤摘要】

本专利技术涉及数据增强,具体而言涉及一种基于生成模型的小样本图像数据增强方法、系统与计算机可读介质


技术介绍

1、随着深度学习技术的发展,实例分割,目标检测等计算机视觉的相关应用都得到了快速发展。然而,现如今深度学习模型的有效训练都仍依靠大量数据。一旦面临数据量较少的低维数据体系,模型的参数就会不确定,从而导致泛化性差,模型输出结果的精度差。目前,数据增强技术被广泛使用,用来缓解数据小样本不充足的问题。然而,标准数据增加仅能产生有限的可信替代数据,并不能从数据本质上解决数据缺失的问题。

2、在计算机视觉任务中,如分类、分割、检测等,分布训练数据是人为平衡的。对于这些人工训练数据,不同类别的标签数量一般都是没有明显的差距,如此平衡的数据集不仅大大简化了算法鲁棒性的要求,同时也保证了分类模型的可靠性。然而,随着标签类别稀少,维护各种类别及其标签的人工平衡的成本十分高昂。如果在自然情况下人工标签平衡未被考虑,那么数据集的分布将会存在明显的区别,使得训练的模型将极大地导致头类过拟合和尾类欠拟合类。

3、为此,现有技术提出多重手段来解决长尾分类(即数据不均衡)问题,具体包括以下几类常用方法:

4、(1)重采样(re-sampling),可以分为对于来自尾部类别标签的欠采样和来自头部类别表演的重采样;

5、(2)重新加权(re-weighting),对给不同类别分配以对应的权重以实现类别平衡;

6、(3)样本合成;

7、(4)样本增强,生成与少样本标签相似的新标签,从而增大数据量;

8、(5)迁移学习,有助于将头类样本的相关信息转移到尾类样本;

9、(6)度量学习,用于测量近尾类的边界;

10、(7)元学习,可以自动学习不同类的权重。


技术实现思路

1、本专利技术的目的在于提出一种基于生成模型的小样本图像数据集增强方法,可有效提高数据集的平衡性,减少样本不平衡现象,提高分类准确率。

2、根据本专利技术目的的第一方面,提出一种基于生成模型的小样本图像数据增强方法,包括以下步骤:

3、利用商用大规模图像数据集训练一生成式模型,获得第一生成模型;

4、利用小样本图像数据集对所述第一生成模型进行微调,使得所述第一生成模型学习小样本图像数据集的独特特征,获得第二生成模型;

5、根据所述小样本图像数据集中每一类别的数据量,确定生成的小样本类别的增强数据量作为预设目标;

6、连续随机采样获得高斯随机向量,并将高斯随机向量输入所述第二生成模型,得到一个生成的图像数据作为增强数据,更新到所述小样本图像数据集中,直到小样本图像数据集的规模达到预设目标。

7、根据本专利技术目的的第二方面,还提出一种计算机系统,包括:

8、一个或多个处理器;以及

9、存储器,存储可被操作的指令;

10、其中,所述指令在通过一个或多个处理器执行时使得前述的一个或多个处理器执行操作,所述操作包括执行前述基于生成模型的小样本图像数据增强方法的过程。

11、根据本专利技术目的的第三方面,还提出一种计算机可读存储介质,用于存储一个或多个程序,所述一个或多个程序包括能够被一个或者多个处理器执行的指令或者指令集;

12、其中,所述指令或者指令集在由一个或多个处理器执行时,执行前述基于生成模型的小样本图像数据增强方法的过程。

13、鉴于有可能产生更广泛的增强,在本专利技术的实施例中提出一种以小样本图像生成模型为基础的数据增强方法,可以基于图像的条件生成对抗网络等生成式网络模型,从源域中获取数据,并学习获取数据项,并将其泛化以生成其他类内数据项。由于该生成过程不依赖于类本身,它可以应用于新的数据类。因此,基于本专利技术提出的以小样本图像生成模型为基础的数据增强方法实现的数据增强/增广,目前计算机视觉领域的基础任务,如物体分类、实例分割、目标检测等,都可以在小样本数据类型中有充足的训练数据,大大提高了训练模型的鲁棒性,避免长尾分布效应影响模型的泛化性,从而实现现实物理世界的应用。

14、结合以上实施例的方法,本专利技术提出的以小样本图像生成模型为基础的数据增强方法,与现有技术相比,具有以下显著的区别以及显著的有益效果:

15、相对于数据集重采样方法来说,本专利技术提出的数据增强方法可以在保持较大类别的数据多样性不变的情况下,有效提高数据平衡性;相对于翻转,裁剪,尺寸变换,加入噪声等常见增强方法,本专利技术提出增强数据更加贴近实际数据,更有利于神经网络的模型训练;相对于传统的生成模型方法,小样本学习可以适应现实中小规模数据集的情况,从而提高小数据类别的多样性。

16、应当理解,前述构思以及在下面更加详细地描述的额外构思的所有组合只要在这样的构思不相互矛盾的情况下都可以被视为本公开的专利技术主题的一部分。另外,所要求保护的主题的所有组合都被视为本公开的专利技术主题的一部分。

17、结合附图从下面的描述中可以更加全面地理解本专利技术教导的前述和其他方面、实施例和特征。本专利技术的其他附加方面例如示例性实施方式的特征和/或有益效果将在下面的描述中显见,或通过根据本专利技术教导的具体实施方式的实践中得知。

本文档来自技高网...

【技术保护点】

1.一种基于生成模型的小样本图像数据增强方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的基于生成模型的小样本图像数据增强方法,其特征在于,所述第一生成模型、第二生成模型的输出特征向量与所述随机采样获得高斯随机向量的维度相同。

3.根据权利要求1所述的基于生成模型的小样本图像数据增强方法,其特征在于,所述利用商用大规模图像数据集训练一生成式模型,获得第一生成模型,使得第一生成模型得以学习大规模图像数据集的多样性信息,并能够在后续的微调训练过程迁移至小样本图像数据集,并通过融合学习小样本图像数据集的独特特征,获得第二生成模型。

4.根据权利要求1所述的基于生成模型的小样本图像数据增强方法,其特征在于,所述生成式模型为自编码器AE以及其衍生模型中的一种。

5.根据权利要求1所述的基于生成模型的小样本图像数据增强方法,其特征在于,所述生成式模型为生成对抗式网络GAN以及其衍生模型中的一种。

6.根据权利要求1所述的基于生成模型的小样本图像数据增强方法,其特征在于,所述生成式模型为具有随机数输入的生成式模型。

>7.根据权利要求1所述的基于生成模型的小样本图像数据增强方法,其特征在于,所述第一生成模型以及第二生成模型的训练过程以及所使用的损失函数相同,其不同之处在于所使用的训练数据集不同。

8.根据权利要求1所述的基于生成模型的小样本图像数据增强方法,其特征在于,所述根据所述小样本图像数据集中每一类别的数据量,确定生成的小样本类别的增强数据量作为预设目标,包括:

9.一种计算机系统,其特征在于,包括:

10.一种计算机可读存储介质,用于存储一个或多个程序,其特征在于,所述一个或多个程序包括能够被一个或者多个处理器执行的指令或者指令集;

...

【技术特征摘要】

1.一种基于生成模型的小样本图像数据增强方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的基于生成模型的小样本图像数据增强方法,其特征在于,所述第一生成模型、第二生成模型的输出特征向量与所述随机采样获得高斯随机向量的维度相同。

3.根据权利要求1所述的基于生成模型的小样本图像数据增强方法,其特征在于,所述利用商用大规模图像数据集训练一生成式模型,获得第一生成模型,使得第一生成模型得以学习大规模图像数据集的多样性信息,并能够在后续的微调训练过程迁移至小样本图像数据集,并通过融合学习小样本图像数据集的独特特征,获得第二生成模型。

4.根据权利要求1所述的基于生成模型的小样本图像数据增强方法,其特征在于,所述生成式模型为自编码器ae以及其衍生模型中的一种。

5.根据权利要求1所述的基于生成模型的小样本图像数据增强方法,其特...

【专利技术属性】
技术研发人员:贾伟胡亮葛俊海
申请(专利权)人:南京先维信息技术有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1