【技术实现步骤摘要】
基于自适应和间隔斥力损失的全监督学习图像分类方法
[0001]本专利技术涉及机器视觉
,具体地,涉及其中的模式识别以及图像分类技术;更具体的,涉及一种基于自适应和间隔斥力损失的全监督学习图像分类方法。
技术介绍
[0002]在图像分类和识别中,通过深度卷积神经网络(CNNs)提取图像特征是提高分类精度的最流行的方法之一。为了增强CNNs的泛化能力和避免过拟合,相关工作提出了数据增强和正则化以及更深层次的神经网络,并在图像识别中具有良好的性能。随着网络层数越来越大,深度卷积网络从早期的工作不断发展到现在主流的方法(如,ResNet、GoogleNet和DenseNet)。在ResNet中,CNNs的规模可达到1000多层,其在公共数据集上的表现优异,具有很强的泛化能力和强大的表达能力。
[0003]在CNNs结构的优化已经取得了优异的表示能力的情况下,如何设计一个有效的目标函数损失成为一个热门的研究课题。公布日为2021.05.25的中国专利技术申请:一种图像分类方法中,设计了基于随机批次的类别中心更新策略,只对 ...
【技术保护点】
【技术特征摘要】
1.一种基于自适应和间隔斥力损失的全监督学习图像分类方法,其特征在于,包括以下步骤:S1,获取待识别图像;S2,将所述待识别图像输入预设的图像分类模型中,获得所述待识别图像的分类结果;所述图像分类模型由在目标函数中结合了自适应斥力损失以及间隔斥力损失的深度卷积神经网络训练获得;其中,所述自适应斥力损失用于扩大类间分离,所述间隔斥力损失用于处理最具有迷惑性类别。2.根据权利要求1所述的基于自适应和间隔斥力损失的全监督学习图像分类方法,其特征在于,所述目标函数按以下公式表示:L=L
s
+L
f
;其中,L
s
表示自适应斥力损失;L
f
表示间隔斥力损失。3.根据权利要求2所述的基于自适应和间隔斥力损失的全监督学习图像分类方法,其特征在于,所述自适应斥力损失L
s
按以下公式表示:其中,N表示训练过程中一次迭代采样的样本数量;θ表示特征向量与权重向量之间的夹角;y
i
为第i个样本的类别标签;j表示第j个分类器;为第i个样本的类别标签;j表示第j个分类器;m1,m2,m3为控制类内损失的类内间隔大小的超参数;φ(θ
j
,θ
yi
)为基于θ
j
和自适应增大类间距离的函数;s为用于控制超球面半径的超参数。4.根据权利要求3所述的基于自适应和间隔斥力损失的全监督学习图像分类方法,其特征在于,所述基于θ
j
和自适应增大类间距离的函数按以下公式表示:5.根据权利要求2所述的基于自适应和间隔斥力损失的全监督学习图像分类方法,其特征在于,所述间隔斥力损失按以下公式表示:其中,N表示训练过程中一次迭...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。