基于多层次特征密集融合的遥感场景图像分类方法技术

技术编号:31024878 阅读:16 留言:0更新日期:2021-11-30 03:24
基于多层次特征密集融合的遥感场景图像分类方法,本发明专利技术涉及遥感场景图像分类方法。本发明专利技术的目的是为了解决现有高光谱图像提取的过程中,由于高光谱图像的高维特性以及小训练样本的情况,导致高光谱图像分类准确率低的问题。过程为:步骤一、采集高光谱图像数据集X和相对应的标签向量数据集Y;步骤二、建立基于双分支多层次特征密集融合的轻量级卷积神经网络BMDF

【技术实现步骤摘要】
基于多层次特征密集融合的遥感场景图像分类方法


[0001]本专利技术涉及遥感场景图像分类方法。

技术介绍

[0002]目前,具有高分辨率的遥感图像被应用到了很多领域。如遥感场景分类
[1]、高光谱图像分类
[2]、变化检测
[3

4]、地理图像和土地利用分类
[6

7]等。然而,遥感图像复杂的空间模式和几何结构为图像分类带来很大的困难。因此,有效理解遥感图像的语义内容就显得尤为重要。本研究的目的是找到一种简洁高效的轻量级网络模型,该模型能够精准的理解遥感图像的语义内容,并且正确判断出它属于哪个场景类别。
[0003]为了有效的对图像特征进行提取,研究人员提出了很多的方法。最初,使用手工制作的特征描述符来提取图像的特征,如颜色直方图
[9]、纹理描述符
[10]、本地二进制模式
[55],GIST
[12]和定向梯度直方图
[13]等。随后,为了解决手工制作特征符方法带来的弊端,研究人员又提出了可以自动从图像中提取特征的无监督特征学习方法。如视觉单词袋模型
[15],稀疏编码
[34],自动编码器
[35],潜在狄利克雷分配
[17]和概率潜在语义分析
[18]等主题模型。这些方法在图像分类的发展过程中起到了很重要的作用。但是,手工制作特征描述符的方法很大程度上受到专家的领域知识和经验的制约,采用这些方法很难提取到图像的高层次特征,所以导致分类精度难以提高。r/>[0004]为了改进这些方法的不足,研究人员又提出了可以从数据中自动学习更有代表性和鉴别性特征的卷积神经网络
[26

39]。由于卷积神经网络在计算机视觉领域
[16][40][46]取得了较大成功,所以研究人员把卷积神经网络引入到图像分类中,并且以卷积神经网络为基本框架搭建出很多性能较好的网络模型。但是这些模型计算量大,复杂度高,限制了其在移动设备上的应用。为了能够实现网络模型在移动设备上的应用,可以采用提高处理器性能或者降低模型复杂度提高模型的计算速度。然而,在短时间内提高处理器性能是不现实的,故采用轻量级网络成为了主要的方法。轻量化的网络已应用于许多任务,包括图像分类
[1

2],图像分割
[11]、目标检测
[56]等。SqueezeNet
[19]提出了Fire模块,该模块将原来一个标准卷积层拆分成挤压层和扩展层。挤压层由一组连续的1
×
1卷积组成,扩展层是由一组连续的1
×
1卷积和3
×
3卷积通道连接而成。由谷歌团队提出的MobileNet有V1,V2,V3三个版本,MobileNetV1
[21]使用了深度可分离卷积,将普通卷积拆分成深度卷积和1
×
1卷积,大大减少了网络的参数量,并且精度也有了一定提升。MobileNetV2
[22]提出了倒残差模块和线性瓶颈结构。该瓶颈结构首先经过1
×
1的卷积进行升维,然后通过3
×
3的深度可分离卷积进行特征提取,最后使用1
×
1卷积进行降维。MobileNetV3
[24]添加了SE模块
[25],并且利用神经结构搜索
[26]来搜索网络的配置和参数。ShuffleNet
[23]是一个效率很高的卷积神经网络架构,专门应用于计算力受限的移动设备。该架构利用分组卷积和通道混洗两个操作来实现,与一些先进模型相比,在类似的精度下大大降低了计算量。
[0005]将传统单线性神经结构改变成多分支结构也是一种提升网络性能的方法。GoogleNet
[66]就很好地证明了多分支结构的优越性,该网络使用Inception模块将输入分
为四个分支,将网络结构变得更宽、更深,获得了优异的性能表现。此外,Y.Liu
[5]提出了一种具有多尺度的双分支网络模型。虽然该方法的参数数量有所减少,但仍然高达60MB。C.Shi
[8]等人提出的双分支特征融合结构,该方法利用深度可分离卷积和标准卷积的堆叠,构成了轻量级神经网络,但忽略了不同层次特征之间的信息交流。
[0006]对于遥感场景图像分类,很多卷积神经网络以牺牲模型的时间和空间复杂度为代价,来提高分类精度,这导致这些网络模型难以在移动设备上运行。当前深度学习在移动设备市场有着巨大的应用潜力,因此,设计一个面向遥感图像分类的轻量级卷积神经网络成为当前的研究热点。目前一些轻量级卷积神经网络虽然能提供较好的分类性能,但并未充分考虑到不同层次特征之间的信息交互,从而限制了分类性能的提升。

技术实现思路

[0007]本专利技术的目的是为了解决现有高光谱图像提取的过程中,由于高光谱图像的高维特性以及小训练样本的情况,导致高光谱图像分类准确率低的问题,而提出基于双分支光谱多尺度注意力网络的高光谱图像分类方法。
[0008]基于多层次特征密集融合的遥感场景图像分类方法具体过程为:
[0009]步骤一、采集高光谱图像数据集X和相对应的标签向量数据集Y;
[0010]步骤二、建立基于双分支多层次特征密集融合的轻量级卷积神经网络BMDF

LCNN;
[0011]步骤三、将高光谱图像数据集X和相对应的标签向量数据集Y输入到建立的基于双分支多层次特征密集融合的轻量级卷积神经网络BMDF

LCNN中,进行迭代优化,得到最优网络BMDF

LCNN;
[0012]步骤四、向最优网络BMDF

LCNN中输入待测高光谱图像进行分类结果预测。
[0013]本专利技术的有益效果为:
[0014]本专利技术在双分支结构的基础上,充分考虑不同层次特征之间的信息交流,提出了一种基于双分支多层次特征密集融合的轻量级卷积神经网络(dual branch multi

level feature dense fusion

based lightweight convolutional neural network,BMDF

LCNN)。该结构通过两个不同的分支对不同层次之间的信息进行了充分的交流,然后两个分支进行融合。实验证明本专利技术方法计算速度优于具有相同参数量甚至更少参数量的分类方法,在分类精度提高的同时计算速度也大幅提升,实现了速度和精度的均衡。
[0015]本专利技术提出了一种基于双分支多层次特征密集融合的轻量级卷积神经网络(dual branch multi

level feature dense fusion

based lightweight convolutional neural network,BMDF

LCNN)。该网络采本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.基于多层次特征密集融合的遥感场景图像分类方法,其特征在于:所述方法具体过程为:步骤一、采集高光谱图像数据集X和相对应的标签向量数据集Y;步骤二、建立基于双分支多层次特征密集融合的轻量级卷积神经网络BMDF

LCNN;步骤三、将高光谱图像数据集X和相对应的标签向量数据集Y输入到建立的基于双分支多层次特征密集融合的轻量级卷积神经网络BMDF

LCNN中,进行迭代优化,得到最优网络BMDF

LCNN;步骤四、向最优网络BMDF

LCNN中输入待测高光谱图像进行分类结果预测。2.根据权利要求1所述基于多层次特征密集融合的遥感场景图像分类方法,其特征在于:所述步骤二中建立基于双分支多层次特征密集融合的轻量级卷积神经网络BMDF

LCNN;具体过程为:基于双分支多层次特征密集融合的轻量级卷积神经网络BMDF

LCNN包括输入层、第一组Group1、第二组Group2、第三组Group3、第四组Group4、第五组Group5、第六组Group6、第七组Group7、第八组Group8、第九组Group9以及输出分类层。3.根据权利要求2所述基于多层次特征密集融合的遥感场景图像分类方法,其特征在于:所述基于双分支多层次特征密集融合的轻量级卷积神经网络BMDF

LCNN连接关系为:输入层的输出端连接第一组Group1,第一组Group1的输出端连接第二组Group2,第二组Group2的输出端连接第三组Group3,第三组Group3的输出端连接第四组Group4,第四组Group4的输出端连接第五组Group5,第五组Group5的输出端连接第六组Group6,第六组Group6的输出端连接第七组Group7,第七组Group7的输出端连接第八组Group8,第八组Group8的输出端连接第九组Group9,第九组Group9的输出端连接输出分类层实现分类。4.根据权利要求3所述基于多层次特征密集融合的遥感场景图像分类方法,其特征在于:所述第一组Group1包括第一最大池化层、第一卷积单元、第二卷积单元、第三卷积单元、第一全连接层;第二组Group2包括第二最大池化层、第四卷积单元、第五卷积单元、第一深度可分离卷积层、第二全连接层;第三组Group3包括第六卷积单元、第七卷积单元、第二深度可分离卷积层;第四组Group4包括第三深度可分离卷积层、第四深度可分离卷积层、第五深度可分离卷积层、第六深度可分离卷积层、第七深度可分离卷积层、第八卷积单元、第九卷积单元、第十卷积单元、第十一卷积单元、第十二卷积单元、第三最大池化层、第一加和add层、第二加和add层、第三加和add层、第四加和add层、第五加和add层、第六加和add层;第五组Group5包括第十三卷积单元、第十四卷积单元、第八深度可分离卷积层、第九深度可分离卷积层、第十深度可分离卷积层、第十一深度可分离卷积层、第十二深度可分离卷积层、第十五卷积单元、第十六卷积单元、第十七卷积单元、第十八卷积单元、第十九卷积单元、第二十卷积单元、第二十一卷积单元、第四最大池化层、第七加和add层、第八加和add层、第九加和add层、第十加和add层、第十一加和add层、第十二加和add层、第十三加和add层、第十四加和add层;第六组Group6包括第十三深度可分离卷积层、第十四深度可分离卷积层、第十五深度可分离卷积层、第十六深度可分离卷积层、第十七深度可分离卷积层、第二十二卷积单元、
第二十三卷积单元、第二十四卷积单元、第二十五卷积单元、第二十六卷积单元、第五最大池化层、第十五加和add层、第十六加和add层、第十七加和add层、第十八加和add层、第十九加和add层、第二十加和add层;第七组Group7包括第十八深度可分离卷积层、第十九深度可分离卷积层、第二十深度可分离卷积层、第二十一深度可分离卷积层、第二十二深度可分离卷积层、第二十三深度可分离卷积层、第二十四深度可分离卷积层、第二十七卷积单元、第二十八卷积单元、第二十九卷积单元、第三十卷积单元、第三十一卷积单元、第三十二卷积单元、第三十三卷积单元、第二十一加和add层、第二十二加和add层、第二十三加和add层、第二十四加和add层、第二十五加和add层、第二十六加和add层、第二十七加和add层、第二十八加和add层;第八组Group8包括第三十四卷积单元、第三十五卷积单元、第二十五深度可分离卷积层;第九组Group9包括全局平均池化GAP、Softmax分类层。5.根据权利要求4所述基于多层次特征密集融合的遥感场景图像分类方法,其特征在于:所述输入层的输出端分别连接第一组Group1中第一最大池化层的输入端和第二卷积单元的输入端,第一最大池化层的输出端连接第一卷积单元,第二卷积单元的输出端连接第三卷积单元,第一卷积单元的输出端和第三卷积单元的输出端连接第一全连接层;第一全连接层的输出端分别连接第二组Group2中第二最大池化层的输入端和第五卷积单元的输入端,第二最大池化层的输出端连接第四卷积单元,第五卷积单元的输出端连接第一深度可分离卷积层,第四卷积单元的输出端和第一深度可分离卷积层的输出端连接第二全连接层;第二全连接层的输出端连接第三组Group3中第六卷积单元,第六卷积单元的输出端连接第七卷积单元,第七卷积单元的输出端连接第二深度可分离卷积层;第二深度可分离卷积层的输出端分别连接第四组Group4中第三深度可分离卷积层的输入端、第五深度可分离卷积层的输入端、第八卷积单元的输入端和第十卷积单元的输入端;将第二深度可分离卷积层的输出端、第三深度可分离卷积层的输出端和第八卷积单元的输出端连接第一加和add层,第一加和add层输出端分别连接第四深度可分离卷积层和第九卷积单元;将第四深度可分离卷积层的输出端、第九卷积单元的输出端、第一加和add层输出端和第八卷积单元的输出端连接第二加和add层;将第二深度可分离卷积层的输出端、第五深度可分离卷积层的输出端和第十卷积单元的输出端连接第三加和add层,第三加和add层输出端分别连接第六深度可分离卷积层和第十一卷积单元;将第六深度可分离卷积层的输出端、第十一卷积单元的输出端、第三加和add层输出端、第十卷积单元的输出端连接第四加和add层;第四加和add层输出端分别连接第七深度可分离卷积层和第十二卷积单元;将第七深度可分离卷积层的输出端、第十二卷积单元的输出端、第十一卷积单元的输出端、第十卷积单元的输出端、第四加和add层输出端连接第五加和add层;将第二加和add层输出端和第五加和add层输出端输入第六加和add层;第六加和add层
连接第三最大池化层;第三最大池化层的输出端分别连接第五组Group5中第十三卷积单元的输入端、第十四卷积单元的输入端、第十五卷积单元的输入端和第十八卷积单元的输入端;将第三最大池化层的输出端、第十三卷积单元的输出端和第十五卷积单元的输出端连接第七加和add层,第七加...

【专利技术属性】
技术研发人员:石翠萍张鑫磊王天毅
申请(专利权)人:齐齐哈尔大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1