一种嵌入有效注意力模块的高光谱玉米品种鉴别方法技术

技术编号:39409332 阅读:11 留言:0更新日期:2023-11-19 16:01
本发明专利技术提供了一种嵌入有效注意力模块的高光谱玉米品种鉴别方法。本发明专利技术首先利用有效注意力模块通过压缩光谱空间信息并结合原始输入特征信息的优势,以帮助卷积特征提取更加高效,然后在Transformer网络中嵌入卷积模块,充分利用两者的优势互补特性,将有效的注意力模块的局部特征提取能力和Transformer网络的全局特征提取能力结合起来;最后针对交叉熵损失函数容易忽略错误识别类别的最大概率值和正确类别的概率之间的差异,添加了一个惩罚项来帮助提升本发明专利技术的鉴别性能。本发明专利技术实现模型的综合性能和有效容量的有效提高,并在提高训练速度的同时减少了模型的计算复杂度。练速度的同时减少了模型的计算复杂度。练速度的同时减少了模型的计算复杂度。

【技术实现步骤摘要】
一种嵌入有效注意力模块的高光谱玉米品种鉴别方法


[0001]本专利技术涉及高光谱种子鉴别技术,具体的说,涉及了一种嵌入有效注意力模块的高光谱玉米品种鉴别方法。

技术介绍

[0002]玉米作为全球人口粮食,对全球经济发展具有重要影响。在种子鉴别领域,普通的理化分析对玉米种子进行鉴别,存在鉴别时间长,破坏种子,需要专业人员操作且局限于实验室等缺陷。
[0003]目前,一些利用RGB玉米种子图像,通过对红、绿、蓝三个颜色通道的组合来表达颜色特征进行鉴别,但它面临着信息量有限以及分类结果容易受光照、阴影等因素干扰的问题,鉴别准确率有待提高。
[0004]最近,高光谱图像因提供比传统RGB图像更丰富的光谱和空间信息而被广泛使用。高光谱图像是通过分析样本在不同波长下的反射或辐射谱线来获取的图像数据。但是目前大多数方法仅利用光谱特征而忽略了空间特征,难以建立玉米品种类别与对应光谱之间的连接。
[0005]如申请号为:CN202310537406.2,专利技术名称为:基于机器学习及局部和全局特征融合的遥感图像分类方法的专利技术专利中提出,将图像的边缘部分使用镜面映射进行补齐,再输入至Transformer网络进行特征提取,最后使用机器学习进行分类。但是使用镜面映射进行补齐可能会引入一定程度的伪像或失真,且当边缘细节或复杂纹理的情况下,可能无法准确地还原原始图像的边缘信息。
[0006]总的来说,目前大多数鉴别方法,不能有效的对光谱和空间特征进行提取。不能有效的对玉米高光谱品种进行鉴别。
[0007]为了解决以上存在的问题,人们一直在寻求一种理想的技术解决方案。

技术实现思路

[0008]本专利技术的目的是针对现有技术的不足,从而提供一种具有较强特征提取能力、鉴别能力突出的嵌入有效注意力模块的高光谱玉米品种鉴别方法。
[0009]为了实现上述目的,本专利技术所采用的技术方案是:一种嵌入有效注意力模块的高光谱玉米品种鉴别方法,包括以下步骤:
[0010]步骤1):高光谱玉米种子的图像首先经过2个3
×
3的卷积模块进行降维。
[0011]步骤2):构建有效的注意力模块,将降维后的高光谱玉米种子的图像的波段特征通过已构建的有效的注意力模块进行局部特征提取。
[0012]首先使用1
×
1卷积对输入维度进行扩张,增加特征深度。然后采用深度可分离卷积对输入特征分别进行空间和通道卷积,深度可分离卷积分为深度卷积和逐点卷积两部分。在深度卷积中,当输入是H
×
W
×
C的张量,H和W分别表示高度和宽度,C表示通道数。卷积核的大小为N
×
N,深度卷积操作不改变输出通道数C,其运算过程表示为:
[0013][0014]其中,y
i,j,k
表示输出张量中第i行第j列第k个通道的元素,x
i+p

1,j+q

1,k
表示输入张量中第i+p

1行第j+q

1列第k个通道的元素,w
p,q,k
表示卷积核中第p行第q列第k个通道的元素。而逐点卷积是将深度卷积生成的特征图在深度方向进行加权,我们规定逐点卷积的卷积核大小为1
×1×
C,逐点卷积过程表示为:
[0015][0016]其中,y
i,j
,k表示深度卷积得到的特征图中第i行第j列第k个通道的元素,v
k,
l表示逐点卷积运算的卷积核的第k行第l列元素。深度可分离卷积在减少计算量的同时增加了模块的高效性。
[0017]在最后嵌入轻量级有效的通道注意力模块,通过全局平均池化对光谱空间信息进行压缩,使用1
×
1卷积学习通道注意力信息,再与原始输入特征相结合以进一步帮助卷积特征提取更加高效的完成。能够保持网络计算成本不变的情况下,提高网络的感受野,从而增加网络对输入数据的全局感知能力。有效的通道注意力模块通过执行卷积核大小为f的1维卷积来生成通道权重,计算过程表示:
[0018][0019]其中,卷积核大小f通过通道维度C的自适应去确定,C表示通道数,|X|
odd
表示距离X最近的奇数,γ和b通过设置不同的参数去改变C和f之间的比例。进一步得到权重ω:
[0020]ω=σ(Con1d
k
(y))
[0021]Con1d表示对输入张量进行全局平均池化后得到的具有自适应核大小的1维卷积。有效的通道注意力模块的嵌入在不增加模型复杂性的前提下提高了网络的性能。
[0022]步骤3):构建Transformer网络,通过Transformer网络中的多头自注意力模块去捕捉更丰富的全局光谱特征。
[0023]Transformer模块中,特征参数先经过一个线形层投影到Quarry(Q),Key(K),Value(V),然后经过Scaled Dot

Product Attention捕获特征图的长距离依赖,Scaled Dot

Product Attention计算各个像素间的权重分数过程表示为:
[0024][0025]其中d
m
表示本模型的维度d
model
=256。我们设置head=8来进行Multi

head self

attention并行计算,使每个头可以独立学到不同的线形投影来变换Q,K,V,Multi

head Self

Attention将Scaled Dot

Product Attention进行h次重复并行运算后拼接在一起,完成多个子空间充分捕捉特征参数不同方面的特征信息的目的。给定和Mult i

head self

attention运算过程表示:
[0026]MultiHead(Q,K,V)=Concat(h1,...,h
i
)W
o
[0027]其中h
i
代表每个多头的注意力权重分数,d
k
=d
v
=d
model
/h。经过多头
自注意力的感受野涵盖所有的空间位置,根据一对点(x
i
,x
j
)的归一化后的相似度来计算权值,得到输出特征函数:
[0028][0029]其中,G表示全局位置空间。有效注意力模块和Transformer Module的结合通过将卷积的平移不变权值ω
i

j
与输出特征融合实现,表现为:
[0030][0031]通过将ω
i

j
表示为一个标量,确保了全局卷积核不会造成参数量爆炸,且将计算开支降到最低。本文档来自技高网
...

【技术保护点】

【技术特征摘要】
Self

Attention将Scaled Dot

Product Attention进行h次重复并行运算后拼接在一起,完成多个子空间充分捕捉特征参数不同方面的特征信息的目的;给定和Multi

head self

attention运算过程表示:MultiHead(Q,K,V)=Concat(h1,...,h
i
)W
o
其中h
i
代表每个多头的注意力权重分数,d
k
=d
v
=d
model
/h;经过多头自注意力的感受野涵盖所有的空间位置,根据一对点(x
i
...

【专利技术属性】
技术研发人员:李国厚张卫东王斌周玲白林锋金松林张自阳
申请(专利权)人:河南科技学院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1