一种样本选择与标签校正结合的网络图像标签去噪方法技术

技术编号:36227997 阅读:69 留言:0更新日期:2023-01-04 12:27
本发明专利技术公开一种样本选择与标签校正结合的网络图像标签去噪方法,包括如下步骤:S1.首先,通过样本与类别中心的余弦相似度挑选出干净样本;S2.通过样本不确定性动态的从余下样本中挑选出可重用样本并校正;S3.最后使用干净样本与校正后的可重用样本一起更新网络;本方法在通过样本与类别中心的余弦相似度挑选出干净样本后,通过样本不确定性动态的从余下样本中挑选出可重用样本并校正,最后使用干净样本与校正后的可重用样本一起更新网络,提升了样本利用率,同时提升了细粒度分类性能。同时提升了细粒度分类性能。同时提升了细粒度分类性能。

【技术实现步骤摘要】
一种样本选择与标签校正结合的网络图像标签去噪方法


[0001]本专利技术涉及网络标签去噪
,具体为一种样本选择与标签校正结合的网络图像标签去噪方法。

技术介绍

[0002]对于噪声问题,除了可通过减少类间样本重合率来提升样本选择的准确率,另一个思路是通过噪声样本选择与损失校正结合的方法来进一步减轻噪声标签对神经网络的影响。基于样本选择的方法是通过一定的方法挑选出干净样本用于后续训练,样本选择方法丢弃的噪声样本中有一部分为内部噪声,称这类样本为可重用样本,这类样本的真实标签仍在数据集中。因此对这部分样本的再利用可以有效的提升样本的利用率,这对于缺乏数据集的细粒度图像分类来说,是一个亟待解决的问题。

技术实现思路

[0003]本专利技术的目的在于提供一种样本选择与标签校正结合的网络图像标签去噪方法,以解决上述
技术介绍
提出的问题。
[0004]为实现上述目的,本专利技术提供如下技术方案:一种样本选择与标签校正结合的网络图像标签去噪方法,包括如下步骤:S1.首先,通过样本与类别中心的余弦相似度挑选出干净样本;S2.通过样本不确定性动态的从余下样本中挑选出可重用样本并校正;S3.最后使用干净样本与校正后的可重用样本一起更新网络。
[0005]进一步的,在S1中,在Softmax层对图片的特征进行归一化,Softmax层的输出过程可表示为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.1)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.2)归一化之后,使用一个超参数s来缩放余弦值,则特征归一化后的L2约束下的Softmax输出计算如下:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.3);其中,与表示第i个样本及其标签。
[0006]更进一步的,经过归一化后,特征在超球面上以角度分布,最后一个全连接层的参数为预训练生成的每个类的中心,网络全连接层的输出为图片特征与每个类中心的余弦距离;记录每张图片与其相应类中心的余弦相似度:
ꢀꢀꢀꢀ
(6.4)为第i个样本与其类别中心的余弦距离,对H进行排序,在每个批次的训练中取余弦相似度大的实例送入对等网络,进行下一步训练;挑选公式如下:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.5)其中,为一个可校正的丢弃率,D为样本集合,Dr为可重用样本。
[0007]进一步的,在S1中挑选出干净样本Dc,剩下的样本可以分为两类,分别为可重用样本Dr和噪声集Dn,需在后续的训练中抛弃;当样本的预测不确定性满足以下条件,则该样本属于可重用样本集Dr:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.6)其中为样本的不确定性,并且表示中样本的不确定性的中位数,用交叉熵来衡量每个样本的不确定性:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.7)。
[0008]进一步的,记录每个样本最近10次的预测,预测随着训练的进行更新:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.8)根据,记录下样本被预测次数最多的类别j以及次数m,为样本被预测为j的概率:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.9)在n次预测中,n次都为相同的预测时不确定性最小,此时,;在n次预测中,n次都为不同的预测时不确定性最大,此时,,n取10。
[0009]进一步的,在S3中,前n次训练过程中,对Softmax层的输出进行平滑处理,使用如下损失进行反向传播:
ꢀꢀꢀꢀꢀꢀ
(6.10)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.11);其中为数据集的标签平滑因子。
[0010]更进一步的,训练n次之后,使用公式(6.6)挑选出可重用样本Dr,并使用更新网络:
ꢀꢀꢀ
(6.12)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.13)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.14)j为连续n次预测过程中被预测次数最多的类别。
[0011]与现有技术相比,本专利技术的有益效果是:本专利技术中的方法在通过样本与类别中心的余弦相似度挑选出干净样本后,通过样本不确定性动态的从余下样本中挑选出可重用样本并校正,最后使用干净样本与校正后的可重用样本一起更新网络,提升了样本利用率,同时提升了细粒度分类性能。
附图说明
[0012]图1为本专利技术CSSLC框架主体结构示意图前半部分;图2为本专利技术CSSLC框架主体结构示意图后半部分;图3为本专利技术CSSLC方法步骤图。
具体实施方式
[0013]下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。
[0014]请参照图1、图2和图3所示,本专利技术为一种样本选择与标签校正结合的网络图像标签去噪方法(Combine Sample Select with Loss Correction),简称CSSLC,与单一的样本选择方法和损失校正方法不同,本方法在样本选择的基础上对部分可重用样本进行损失校正,这可以大大提升样本利用率并提升图像分类性能;首先将样本集划分为三个集合:干净样本集Dc,可重用样本集Dr与噪声集Dn,样本集,其中是第i个训练样本,是的标签;对于可重用样本集Dr来说,并非样本的真实标签,记样本真实标签为,在接下来的步骤中将区分出干净样本集Dc,可重用样本集Dr与噪声集Dn,对于可重用样本集Dr,拟对其进行损失校正后再送入网络中进行训练;在基于样本选择挑选干净样本的前提下,对于想要抛弃的噪声样本通过样本的不确定性再次动态挑选出可重用样本并对可重用样本进行损失校正。由于对样本来说,不确定性越高,则越有可能是噪声样本,而不确定性越低,则越有可能是可重用样本。
[0015]在本实施例中,传统的样本选择方式先计算样本的损失再根据小损失挑选样本,采用先根据样本与类别中心的余弦相似度挑选样本再计算损失的方式,在计算损失前挑选出可用的样本,并用这些样本计算损失。
[0016]基于一个简单的观察,网络会先拟合简单的干净的样本,简单的干净的样本与类别中心的余弦相似度会低于噪声样本,所以直接根据样本与类别中心余弦相似度来挑选干
净样本。
[0017]Softmax的目标是尽可能最大化正确分类的概率,因此它会忽略掉一些比较难分辨的图片,也就是低质量的图片,而优先拟合高质量的图片;为了增大图片的利用率,在Softmax层对图片的特征本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种样本选择与标签校正结合的网络图像标签去噪方法,其特征在于,包括如下步骤:S1.首先,通过样本与类别中心的余弦相似度挑选出干净样本;S2.通过样本不确定性动态的从余下样本中挑选出可重用样本并校正;S3.最后使用干净样本与校正后的可重用样本一起更新网络。2.根据权利要求1所述的一种样本选择与标签校正结合的网络图像标签去噪方法,其特征在于,在S1中,在Softmax层对图片的特征进行归一化,Softmax层的输出过程可表示为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.1)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.2)归一化之后,使用一个超参数s来缩放余弦值,则特征归一化后的L2约束下的Softmax输出计算如下:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.3);其中,与表示第i个样本及其标签。3.根据权利要求2所述的一种样本选择与标签校正结合的网络图像标签去噪方法,其特征在于,经过归一化后,特征在超球面上以角度分布,最后一个全连接层的参数为预训练生成的每个类的中心,网络全连接层的输出为图片特征与每个类中心的余弦距离;记录每张图片与其相应类中心的余弦相似度: (6.4)为第i个样本与其类别中心的余弦距离,对H进行排序,在每个批次的训练中取余弦相似度大的实例送入对等网络,进行下一步训练;挑选公式如下:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.5)其中,为一个可校正的丢弃率,D为样本集合,Dr为可重用样本。4.根据权利要求3所述的一种样本选择与标签校正结合的网络图像标签去噪方法,其特征在于,在S1中挑选出干净样本Dc,剩下的样本可以分为两类,分别为可重用样本Dr和噪声集Dn,需在后续的训练中抛弃;当样本的预测不确定性满足以下条件,则该样...

【专利技术属性】
技术研发人员:姚亚洲黄丹沈复民孙泽人申恒涛
申请(专利权)人:南京码极客科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1