一种高效率和精度的遥感图像语义分割方法及应用技术

技术编号:39054371 阅读:13 留言:0更新日期:2023-10-12 19:47
本发明专利技术公开的一种高效率和精度的遥感图像语义分割方法,使用MobileNetV2网络替换DeepLabv3+原始主干网络Xception进行特征提取;在特征提取后获得的浅层特征层与深层特征层分别引入不同的注意力机制,提高插值的准确性;所述浅层特征层引入的注意力机制构建为卷积注意力模块,所述深层特征层引入的注意力机制构建为坐标注意力模块。本发明专利技术在特征提取模块获得的深层有效特征之后加入轻量级的通用卷积注意力模块CBAM,在减少网络参数量的同时增强网络特征提取能力;引入坐标注意力机制CA,使模型更关注图像中有效的特征信息,忽略无关的背景信息,以及改进了DeepLabV3+技术,提出了更适用于高分辨率遥感影像分割的方法。提出了更适用于高分辨率遥感影像分割的方法。提出了更适用于高分辨率遥感影像分割的方法。

【技术实现步骤摘要】
一种高效率和精度的遥感图像语义分割方法及应用


[0001]本专利技术公开一种高效率和精度的遥感图像语义分割方法及应用,涉及图像语义分割方法


技术介绍

[0002]语义分割是遥感图像解译的关键技术之一,但高分辨率遥感图像信息复杂多样、特征丰富、物体尺度差异大,传统分割方法只能提取到图像的低级特征,不能满足高分辨率遥感图像分割的要求。深度学习算法被广泛应用,如FCN、SegNet、DeepLabV1/V2/V3/V3+等,其中DeepLabv3+采用Xception网络作为编码器,可以更好地捕捉特征,提高了分割精度。
[0003]DeepLabv3+虽然相对于经典语义分割模型FCN,U

Net等具有更好的分割效果,但由于其本身网络结构较为复杂,上采样幅度过大导致特征图中重要像素信息丢失,在高分辨率遥感图像和复杂场景下仍存在分割效果不佳、网络参数量较大、拟合速度慢、小目标分割不精确、边界信息较粗造等问题。
[0004]为了克服这一问题,现有技术中有应用MobileNetV2对DeepLabv3+进行替换以及应用注意力机制提高效率和精度的相关方法。
[0005]专利CN 112287940A就公开了一种基于深度学习的注意力机制的语义分割的方法,这个文件的创新思路是利用DeepLabv3+网络和MS

CAM模型,解决尺度不一致问题和语义特征融合问题,提高了准确度。专利CN 112686903A也公开了类似
技术实现思路
,主要思路是利用resnet网络提取特征并进行数据融合,同时在网络结构的设计中引入了空间位置注意力模块和通道注意力模块,提高了准确度。
[0006]论文:基于DeepLabV3+与注意力机制相结合的图像语义分割;则是通过在特征提取阶段将注意力机制和DeepLabV3+相结合,强调了不同级别的特征图中存在的特征重要程度不同。论文:采用双注意力机制Deeplabv3+算法的遥感影像语义分割;则是通过引入双注意力机制模块(DAMM)并在ASPP层串联或并联连接来改善DeepLabv3+网络的缺点。
[0007]论文:Semantic segmentation of UAV remote sensing images based on edge feature fusing and multi

level upsampling integrated with Deeplabv3+,则是使用基于边缘特征融合和Deeplabv3+集成的多级上采样算法,以提供边缘信息和保留高级语义信息。
[0008]综上所述,现有技术相关实现方法普遍存在网络结构复杂的问题。并且对于注意力机制的使用仅仅是将其引入串联或并联;仅仅在Xception模型中提取两条低级特征等,提高精度的效果不佳。
[0009]本
技术实现思路

[0010]本专利技术目的在于,提供一种高效率和精度的遥感图像语义分割方法及应用,解决现有技术中优化的图像语义分割方法复杂度高导致效率低下、应用注意力机制提高精度的效果不佳的问题。
[0011]为实现上述技术目的,达到上述技术效果,专利技术是通过以下技术方案实现:
[0012]一种高效率和精度的遥感图像语义分割方法,使用MobileNetV2网络替换DeepLabv3+原始主干网络Xception进行特征提取;
[0013]在特征提取后获得的浅层特征层与深层特征层分别引入不同的注意力机制,提高插值的准确性;
[0014]所述浅层特征层引入的注意力机制构建为卷积注意力模块,所述卷积注意力模块依据特征的重要性和空间分布进行选择,通过权重分配强调重要特征并抑制不重要的特征;
[0015]所述深层特征层引入的注意力机制构建为坐标注意力模块,所述坐标注意力模块强化空间位置信息,通过依据特征的空间分布来赋予不同的注意力权重。
[0016]进一步的,所述卷积注意力模块为CBAM注意力模块,所述坐标注意力模块为CA注意力模块,还包括ASPP模块进行卷积;
[0017]实现步骤具体为:
[0018]S1、对特征提取网络进行四次下采样,提取特征的同时保留两即浅层特征层、深层特征层,将深层语义特征输入至CBAM注意力模块;
[0019]S2、ASPP模块对CBAM注意力模块提取到的特征以不同膨胀率的空洞卷积进行并行采样,使用1
×
1卷积调整特征通道数后进行双线性插值四倍上采样操作;
[0020]S3、浅层特征输入至CA注意力模块,然后使用1
×
1的卷积调整通道数,与双线性插值上采样得到的结果进行融合。
[0021]S4、将融合后的特征图进行卷积以及双线性插值四倍上采样操作还原至原图大小并得到分割图像。
[0022]进一步的,所述卷积注意力模块为SENet注意力模块,所述坐标注意力模块为Non

local注意力模块,还包括ASPP模块进行卷积;
[0023]实现步骤具体为:
[0024]S1、对特征提取网络进行四次下采样,提取特征的同时保留两即浅层特征层、深层特征层,将深层语义特征输入至SENet注意力模块;
[0025]S2、ASPP模块对Non

local注意力模块提取到的特征以不同膨胀率的空洞卷积进行并行采样,使用1
×
1卷积调整特征通道数后进行双线性插值四倍上采样操作;
[0026]S3、浅层特征输入至CA注意力模块,然后使用1
×
1的卷积调整通道数,与双线性插值上采样得到的结果进行融合。
[0027]S4、将融合后的特征图进行卷积以及双线性插值四倍上采样操作还原至原图大小并得到分割图像。
[0028]进一步的,所述步骤S3引入多尺度特征融合模块,具体为:
[0029]S3、浅层特征输入至CA注意力模块,然后使用1
×
1的卷积调整通道数,与双线性插值上采样得到的结果进行浅层和深层特征的多尺度特征融合。
[0030]进一步的,步骤S2中的动态卷积替换原始的空洞卷积。
[0031]本专利技术的另一目的在于,公开一种高效率和精度的遥感图像语义分割方法的应用,应用于高分辨率遥感影像分割中,对输入的影像进行预处理,制作训练样本集,训练适用于高分辨率遥感影像分割的模型。
[0032]进一步的,利用迁移学习思想在训练前先载入主干网络MobileNetV2的预训练模
型权重,将预训练参数更新至改进网络中训练,使得模型能够加速收敛,输出最终遥感影像地物信息精确提取结果。
[0033]进一步的,将训练集加载至改进的DeepLabv3+模型进行训练,最后得出训练好的DeepLabv3+模型,将该模型应用于高分辨率遥感图像地物分类中。
[0034]进一步的,应用于以高分辨率卫星影像建筑、水体、森林、草地、农田为提取目标。
[0035]有益效果:
[0本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种高效率和精度的遥感图像语义分割方法,其特征在于,使用MobileNetV2网络替换DeepLabv3+原始主干网络Xception进行特征提取;在特征提取后获得的浅层特征层与深层特征层分别引入不同的注意力机制,提高插值的准确性;所述浅层特征层引入的注意力机制构建为卷积注意力模块,所述卷积注意力模块依据特征的重要性和空间分布进行选择,通过权重分配强调重要特征并抑制不重要的特征;所述深层特征层引入的注意力机制构建为坐标注意力模块,所述坐标注意力模块强化空间位置信息,通过依据特征的空间分布来赋予不同的注意力权重。2.根据权利要求1所述的高效率和精度的遥感图像语义分割方法,其特征在于,所述卷积注意力模块为CBAM注意力模块,所述坐标注意力模块为CA注意力模块,还包括ASPP模块进行卷积;实现步骤具体为:S1、对特征提取网络进行四次下采样,提取特征的同时保留两即浅层特征层、深层特征层,将深层语义特征输入至CBAM注意力模块;S2、ASPP模块对CBAM注意力模块提取到的特征以不同膨胀率的空洞卷积进行并行采样,使用1
×
1卷积调整特征通道数后进行双线性插值四倍上采样操作;S3、浅层特征输入至CA注意力模块,然后使用1
×
1的卷积调整通道数,与双线性插值上采样得到的结果进行融合。S4、将融合后的特征图进行卷积以及双线性插值四倍上采样操作还原至原图大小并得到分割图像。3.根据权利要求1所述的高效率和精度的遥感图像语义分割方法,其特征在于,所述卷积注意力模块为SENet注意力模块,所述坐标注意力模块为Non

local注意力模块,还包括ASPP模块进行卷积;实现步骤具体为:S1、对特征提取网络进行四次下采样,提取特征的同时保留两即浅层特征层、深层特征层,将深层语义特征输入至SENet注意力模块;S2、ASPP模块对No...

【专利技术属性】
技术研发人员:李兆飞陶洪洁祁飞陈景珏
申请(专利权)人:四川轻化工大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1