当前位置: 首页 > 专利查询>四川大学专利>正文

提高小样本、小目标识别准确率的深度学习训练方法技术

技术编号:36553962 阅读:8 留言:0更新日期:2023-02-04 17:08
本发明专利技术公开提高小样本、小目标识别准确率的深度学习训练方法,涉及小样本、小目标识别技术领域。本发明专利技术针对训练时不同小样本、小目标种类背景相似度过高的问题提出融合双注意力机制的特征加强模块;其次,针对单样本情况下的预测可能产生的过拟合问题提出基于高斯分布的特征生成模块以提高泛化能力;最后,将三种典型小样本训练方法统一成两阶段训练模型以融入提出的方法。将该思路及改进首次应用于传统害虫分类数据集IP102,识别准确率可以在基准方法上取得2.11%到6.87%的提升。在基准方法上取得2.11%到6.87%的提升。在基准方法上取得2.11%到6.87%的提升。

【技术实现步骤摘要】
提高小样本、小目标识别准确率的深度学习训练方法


[0001]本专利技术涉及小样本、小目标识别
,具体涉及提高小样本、小目标识别准确率的深度学习训练方法。

技术介绍

[0002]农业问题关乎民生大计,种类繁多的害虫却给粮食生产和作物安全带来了巨大的挑战,因此安全高效的识别农业害虫尤为重要。同时基于深度学习的图像识别技术也取得了飞速的进展,各种改进的卷积神经网络和transformer机制在某些特定场景下的表现已经超越人类,面对经济与效率的取舍,有学者在农业害虫识别领域使用机器视觉方法进行了各种积极的尝试。
[0003]复杂农田生态中小样本、小目标识别研究过程中,2016年吴翔使用12层卷积神经网络对128*128输入的彩色图像进行识别,在10类害虫识别上达到了76.7%的识别准确率;2017年Cheng等通过深度残差模块对复杂农田背景下的害虫进行识别,准确率达到99.67%;2018年周爱明提出了适合移动端部署的轻量化模型,在保证一定效率的条件下识别准确率为93.5%;2019年THENMOZHI等使用迁移学习的思路研究农业害虫识别,并对多种超参数进行调节,最终在引用的三类害虫识别上达到95%以上的准确率;2020年NANNI等人在更具挑战的ip102数据集上,将显著性方法与卷积神经网络进行融合,达到了61.93%的识别准确率;2021年HRIDOY等使用不同的卷积神经网络,在早期秋葵害虫图像上进行对比实验,其中MobileNetV2表现效果最佳,取得了98%的识别准确率。虽然已有研究取得了较好的成果,但是其识别准确率严重依赖数据集,对于新出现的未经训练的类别则束手无策
[0004]为了进一步农业害虫识别提高模型在小样本、小目标情况下的识别准确率,目前已经具有三种最典型小样本训练方法,即匹配网络、原型网络和图神经网络。三种小样本学习方法在具有不同特征的数据上表现各有优势,但三种典型的小样本训练方法仍存在如下缺陷:
[0005]1、三种典型网络小样本训练方法都只关注度量方法合适而忽略了将图像信息映射到特征空间的过程中是否损失了每个害虫类别的关键性特征信息,如果每类害虫缺乏独有的特征标识,那么分类效果势必收到影响。
[0006]2、三种典型网络小样本训练方法,即使映射后的特征向量足以保留每张害虫图像的类别信息,在测试阶段每一类害虫仅有一张图片进行分类引导,如果这一张图片特征不明确或者某些非关键性信息过于强烈则会对分类结果有错误的引导,势必会影响病虫害特征的准确性。
[0007]3、基于深度学习的图像识别技术在具体应用前必须先经过大量带标签样本的训练,然而在实际场景中目标域样本可能非常稀缺。现有的小样本训练方法,训练时可能存在的小目标和背景混淆以及小样本场景下预测可能产生的过拟合。

技术实现思路

[0008]本专利技术的目的在于,提供提高小样本、小目标识别准确率的深度学习训练方法,提出一个通用的两阶段训练模型以融合现行主流方法并增强其表现,针对训练时可能存在的小目标和背景混淆问题提出融合双注意力机制的特征加强模块。其次,针对小样本场景下预测可能产生的过拟合问题提出基于高斯分布的特征生成模块以提高泛化能力。最后,将改进思路统一成两阶段训练模型,在三种典型小样本识别方法上取得了2.11%到6.87%不等的提升效果。
[0009]为实现上述技术目的,达到上述技术效果,本专利技术是通过以下技术方案实现:
[0010]提高小样本、小目标识别准确率的深度学习训练方法,将传统小样本学习训练方法分成两个阶段训练模型,在训练阶段,引入双注意力机制强化不同小样本、小目标的差异信息特征;在验证阶段,基于高斯分布的特征生成模块,借助基类丰富的小样本、小目标信息生成相关样本,纠正测试样本稀缺带来的偏分布。
[0011]进一步地,所述双注意力机制由空间注意力机制和通道注意力机制融合,融入到基于传统小样本学习训练方法训练出可提取小样本、小目标类别关键性信息的特征提取器,对小样本、小目标进行关键性信息的特征进行加强;
[0012]进一步地,所述在验证阶段假定小样本、小目标的关键性信息的特征是成高斯分布,基于训练阶段关键性信息的特征提取网络,计算基类小样本、小目标的类别在特征空间上的均值和方差,并基于最近邻算法与新类小样本、小目标的相似类别特征生成带标记样本,再结合生成的标记样本和新类小样本、小目标支持集训练出一个分类器;
[0013]进一步地,将通道注意力机制、空间注意力机制进行骨干网络信息融合步骤如下:
[0014]步骤1:所述通道注意力机制由平均均池化下采样和最大池化下采样的新类小样本、小目标进行数据特征处理而得,表达式如下:
[0015][0016]F∈R
C
×
H
×
W
为选取的中间层的特征图,C,H,W分别表示特征图的深度、高度和宽度;α,δ分别表示平均池化下采样和最大池化下采样,经过其作用后特征图尺寸为C
×1×
1,整个过程可表示为:
[0017][0018]其中W0,W1是共享卷积层,用来改变特征图的通道数;
[0019]其完整的通道注意力操作如下:
[0020]ω1=σ(W1ReLU(W0α(F))+W1ReLU(W0δ(F)))
[0021]ReLU()和σ()分别表示Relu激活函数和sigmoid激活函数;
[0022]步骤2:所述空间注意力机制将平均池化下采样和最大池化下采样的结果进行特征融合后叠加一个卷积层,以获取空间权重特征,形式化表示为:
[0023]ω2=σ(W
7*7
(α(F);δ(F)))
[0024]步骤3:将步骤1和步骤二中的通道注意力机和空间注意力机制进行骨干网络信息融合成双注意力机制,融合过程如下:
[0025][0026][0027]ω1,ω2分别代表提到的通道注意力机制和空间注意力机制,表示逐元素相乘。
[0028]进一步地,所述在验证阶段具体详细步骤如下:
[0029]步骤1:计算基类特征信息,其中第i类的均值μ
i
,和方差Σ
i
为:
[0030][0031][0032]其中i代表支持集内样本种类数,j代表对应种类内具体的样本数量。n
i
则表示基类i中样本的总数,x
j
是基类i中第j个样本的特征向量;
[0033]步骤2:生成最相关种类特征,用欧式距离进行密切性度量找出K个类别,通过K个类别的均值和方差来生成最相关类别的特征信息;
[0034][0035]是新类中带标签样本在特征空间中的向量表示,N
d
是基类中所有样本与的欧式距离的集合,选取距离最近的前t个元素作为补充类集合N
t

[0036][0037]根据补充类集合内的元素可以生成与新类关系密切的均值和方差:
[0038][0039]步骤3:基于生成特征样本训练线性分本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.提高小样本、小目标识别准确率的深度学习训练方法,其特征在于,将传统小样本学习训练方法分两个阶段,在训练阶段,引入双注意力机制强化不同小样本、小目标的差异信息特征;在验证阶段,基于高斯分布的特征生成模块,借助基类生成相关样本。2.根据权利要求1所述提高小样本、小目标识别准确率的深度学习训练方法,其特征在于,所述双注意力机制由空间注意力机制和通道注意力机制融合,并融入至基于传统小样本学习训练方法训练出关键性信息的特征提取器,对关键性信息的特征加强。3.根据权利要求1所述提高小样本、小目标识别准确率的深度学习训练方法,其特征在于,所述在验证阶段假定小样本、小目标的关键性信息的特征成高斯分布,基于训练阶段关键性信息的特征提取网络,计算小样本、小目标的基类类别在特征空间上的均值和方差,并基于最近邻算法与小样本、小目标的新类相似类别特征生成带标记样本,再结合生成标记样本和新类小样本、小目标支持集训练分类器。4.根据权利要求2所述提高小样本、小目标识别准确率的深度学习训练方法,其特征在于,将通道注意力机制、空间注意力机制进行骨干网络信息融合步骤如下:步骤1:所述通道注意力机制由平均均池化下采样和最大池化下采样的新类小样本、小目标进行数据特征处理而得,表达式如下:F∈R
C
×
H
×
W
为选取的中间层的特征图,C,H,W分别表示特征图的深度、高度和宽度;α,δ分别表示平均池化下采样和最大池化下采样,经过其作用后特征图尺寸为C
×1×
1,整个过程可表示为:其中W0,W1是共享卷积层,用来改变特征图的通道数;其完整的通道注意力操作如下:ω1=σ(W1ReLU(W0α(F))+W1ReLU(W0δ(F)))ReLU()和σ()分别表示Relu激活函数和sigmoid激活函数;步骤2:所述空间注意力机制将平均池化下采样和最大池化下采样的结果进行特征融合后叠加一个卷积层,以获取空间权重特征,形式化表示为:ω2=σ(W
7*7

【专利技术属性】
技术研发人员:王祎徐振宇刘怡光楼旭东房景鑫
申请(专利权)人:四川大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1