【技术实现步骤摘要】
视点意识的动态路由胶囊网络的遥感图像场景分类方法
[0001]本专利技术涉及遥感图像场景分类
,尤其涉及一种视点意识的动态路由胶囊网络的遥感图像场景分类方法。
技术介绍
[0002]遥感图像场景分类任务指对遥感图像所表达的场景进行理解,并将其标注为特定的语义类别。它在自然灾害监测、城市规划、土地资源管理等领域有着重要的意义。与普通图像相比,遥感图像中不同场景类别相似性大,甚至相同场景类别也存在着一定的视觉差异性;航拍图像场景会被其他与图像场景标签无关的对象所包围,在具有不同的光照、视点和分辨率的条件下,很难分辨出关键目标;且并非所有拍摄角度均为垂直,而是趋于多样化,导致遥感图像场景分类依然面临挑战。
[0003]传统上的方法主要集中在手工特征提取和编码上。这些方法包括尺度不变特征变换,方向尺度直方图、基于视觉特征的视觉词袋模型和其他空间特征提取。手工特征根据其特征的语义层级,可以划分为低级手工特征和中级手工特征。这些方法都具有人为设计的特点,不能自动学习,在图像特征的选择上具有一定的主观性,无法提取到图像的语义特征。
[0004]最近,自深度特征学习取得了突破性进展后,机器学习与深度学习便从此登上历史舞台,支持向量机、决策树等机器学习方法,CNN、AlexNet、VGGNet等深度学习方法都被广泛应用在遥感图像场景的监督分类研究中,比手工特征具有更好的判别能力。深度神经网络具有多层次的结构,从模型原始输入中提取更加鲁棒的特征,多层次的结构使得特征学习循序渐进,逐步由简单的特征过渡到复杂而抽象的特 ...
【技术保护点】
【技术特征摘要】
1.视点意识的动态路由胶囊网络的遥感图像场景分类方法,其特征在于,包括:S1:将场景数据集按预设比例划分为训练集和测试集;S2:对训练集中的图像进行预处理;S3:构建视点意识的动态路由胶囊网络模型包括空间变换网络和胶囊网络模块,其中,空间变换网络用于根据输入的图像获得具有对象
‑
观察者视点信息的姿态矩阵,胶囊网络模块包括主胶囊层、三层卷积胶囊层和类别胶囊层,主胶囊层用于根据具有对象
‑
观察者视点信息的姿态矩阵获得用以表达图像中物体对象的胶囊,三层卷积胶囊层用于基于主胶囊层的胶囊提取用以表达图像部分
‑
整体信息的胶囊,类别胶囊层与第三层卷积胶囊层之间采用动态路由机制,用于根据卷积胶囊层的信息获得表示图像类别概率信息,并基于图像类别概率信息得到最终分类结果;S4:将训练集中预处理后的图像输入视点意识的动态路由胶囊网络,进行训练,并通过边界损失计算真实结果和预测结果的损失,对网络模型进行微调,得到训练好的模型;S5:将测试集中的图像进行预处理后输入训练好的模型,得到最终分类结果。2.如权利要求1所述的遥感图像场景分类方法,其特征在于,步骤S2包括:步骤S2.1:将数据集中的图像保存在对应的场景类别的文件夹中;步骤S2.2:将数据集中包含的图像统一使用双线性插值的方式重新设置图像分辨率。3.如权利要求1所述的遥感图像场景分类方法,其特征在于,将由网格生成器和采样器组成的空间变换模块嵌入到一个由标准的CNN网络构成的定位网络后,构成空间变换网络。4.如权利要求3所述的遥感图像场景分类方法,其特征在于,定位网络用于提取图像特征和仿射变换参数;网格生成器用于根据仿射变换参数生成特定大小的空间坐标网格,采样器用于根据图像特征和空间坐标网络,获得具有对象
‑
观察者视点信息的姿态矩阵。5.如权利要求1所述的遥感图像场景分类方法,其特征在于,类别胶囊层与第三层卷积胶囊层之间的动态路由机制包括:将相邻两层胶囊层中,低层胶囊层的胶囊作为输入,乘以一个变换矩阵W得到其预测向量,采用子概念学习的动态路由投票得出高层胶囊,其中,低层胶囊层为第三层卷积胶囊层,高层胶囊层为类别胶囊层;将低层第i个胶囊与高层第j个胶囊之间连接的对数先验概率b
ij
初始化为0,计算每个胶囊的子概念概率值,公式为:式(1)中为低层第i个胶囊对高层...
【专利技术属性】
技术研发人员:边小勇,孙学昊,邓鹤,阚东东,盛玉霞,喻国荣,符浩,张晓龙,
申请(专利权)人:武汉科技大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。