基于CDCP局部描述子的遥感图像场景分类方法技术

技术编号:13505245 阅读:129 留言:0更新日期:2016-08-10 12:03
本发明专利技术公开了一种基于完全双交叉模式CDCP局部描述子的遥感图像场景分类方法,主要解决传统遥感图像分类方法准确率不高的问题。其实现步骤为:1.输入遥感图像数据集;2.对数据集中的图像进行灰度化处理;3.对灰度化处理后的图像提取完全双交叉模式CDCP局部特征描述子,即将每幅图像转化成一个特征向量;4.对图像的特征向量进行归一化;5.以归一化后的特征向量作为分类特征,采用SVM分类器对数据集中所有图像进行分类,并输出分类结果。本发明专利技术提出的完全双交叉模式CDCP局部特征描述子对多种遥感图像具有很强的描述能力,提高了场景分类的准确率,可用于对遥感图像数据的分析和管理。

【技术实现步骤摘要】

本专利技术属于图像处理
,进一步涉及遥感图像场景分类,可用于对遥感图像数据的分析和管理。
技术介绍
场景分类是遥感图像处理的一个重要环节,也是遥感研究领域的热点。随着卫星遥感图像和航空遥感图像分辨率不断提高,可以从遥感图像中获得更多有用的数据和信息。而针对不同场合的应用,对遥感图像的处理也有着不同的要求,所以为了有效地对这些遥感图像数据进行分析和管理,需要根据图像内容给图像贴上语义标签。而场景分类就是解决该类问题的一种重要途径。场景分类指的就是从多幅图像中区分出具有相似场景特征的图像,并正确的对这些图像进行分类。通俗讲就是将数据库中的不同遥感图像按照一定的分类特征进行分类,所以场景分类的关键就在于对图像特征的提取。针对图像特征的提取,已经出现了很多经典的方法,主要分为三类:一是对图像直接提取特征描述子,比如尺度不变特征变换SIFT、颜色直方图、方向梯度直方图HOG、局部二值模式LBP等;二是在图像分块提取的一些底层特征基础上继续进行特征提取,比如词袋模型BOVW、稀疏编码等;三是通过训练深度网络模型,对图像自动提取特征。上述三种方法各有优缺点。第一种方法虽然步骤简单,但由于低层特征对于场景语义信息的描述具有局限性,所以这种方法对提取的特征描述子具有较高的要求;第二种方法相对于第一种方法分类精度虽有所提高,但处理过程会更复杂;而深度网络是最近几年兴起的一种方法,优点在于不用人工提取特征描述子,而且经过充分训练后的网络分类效果非常好。但深度网络模型却需要大量的数据进行训练,耗时较长,对存储要求也相对较高。
技术实现思路
本专利技术的目的在于针对已有技术的不足,提出一种基于CDCP局部特征描述子的遥感图像场景分类方法,以减小对分类模型的训练耗时,提高分类的精度。本专利技术的技术思路是:针对遥感图像场景种类繁多、纹理复杂的特点通过统计图像中像素点与邻域像素点之间的灰度变化趋势以及变化幅度,并经过编码得到一个统计直方图,将该直方图作为每幅图像的分类特征,用分类器进行分类,从而获得较好的分类效果。其实现步骤包括如下:(1)输入遥感图像数据集;(2)采用Matlab自带的灰度化函数rgb2gray()对输入的所有图像进行灰度化处理;(3)设置数据集中每幅图像像素点两层邻域的模式,即先将每个像素点的两层邻域分成0,π/4,π/2,3π/4,π,5π/4,3π/2,7π/4这8个方向,再将该8个方向分为两组:第一组为(0,π/2,π,3π/2),第二组为(π/4,3π/4,5π/4,7π/4);(4)计算数据集中每幅图像在上述两组模式下的灰度差值符号直方图,再将这两组模式下的灰度差值符号直方图连接起来,生成图像的灰度差值符号直方图;(5)计算数据集中每幅图像在上述两组模式下的灰度差值绝对值直方图,再将这两组模式下的灰度差值绝对值直方图连接起来,生成图像的灰度差值绝对值直方图;(6)将图像的灰度差值符号直方图和灰度差值绝对值直方图连接起来,生成图像的特征向量;(7)在数据集的每一类遥感场景图像中,随机地选择其中80%的图像的特征向量作为训练集,其余图像的特征向量作为测试集;(8)对特征向量进行归一化处理,即将训练集与测试集一起归一化到[0,1]区间;(9)以归一化后的特征向量作为分类特征,采用SVM分类器对数据集中所有图像进行分类,即利用训练集建立SVM分类模型,再利用该分类模型对测试集进行预测。本专利技术与现有技术相比具有如下优点:本专利技术提出了完全双交叉模式CDCP局部特征描述子,与以往的局部二值模式LBP描述子相比,由于CDCP考虑了两层邻域像素灰度的变化,能更好地反映图像在纹理上的变化趋势;与原有的双交叉模式DCP描述子相比,由于CDCP增加了相邻像素灰度差值绝对值的变化,因而弥补了相邻像素灰度差值符号变化反映模式少的缺陷,使描述子的表达能力更强。实验结果表明,本专利技术对多个数据集的分类效果都很好,相比已有方法其分类精度更
高。附图说明图1是本专利技术的实现流程图;图2是本专利技术中每个像素点的两层邻域模式图。具体实施方式参照附图1,本专利技术的具体步骤如下:步骤1,输入数据。由于数据集有多个类别,所以先将各个类别的场景图像分别放在各个文件夹中,然后依次读取。在本专利技术实施例中,对UCMERCED data数据集和WHU-RS data数据集两个遥感数据集进行实验,即将数据集中的所有图像进行分类实验。步骤2,将所有图像进行灰度化处理。由于本专利技术提出的完全双交叉模式CDCP局部特征描述子主要是提取图像的纹理信息,考虑图像的灰度值变化,所以必须先对图像进行灰度化处理。在本实例中,采用Matlab自带的灰度化函数rgb2gray()对所有图像进行灰度化处理。步骤3,设置每个像素点两层邻域的模式。由于考虑到编码后得到的直方图,即每幅图的特征向量维数过高,降低了效率也容易产生冗余,故需要对每个像素点的邻域模式进行划分。(3a)将每个像素点的邻域分为(0,π/4,π/2,3π/4,π,5π/4,3π/2,7π/4)这8个方向,如图2(a)所示;(3b)再将8个方向分为两种模式:即将其中的0,π/2,π,3π/2分为第一组,称为模式一,如图2(b)所示;将其余的π/4,3π/4,5π/4,7π/4分为第二组,称为模式二,如图2(c)所示。步骤4,根据以上设置的两组模式计算图像的灰度差值符号直方图。(4a)计算中心点像素与其第一层邻域像素点灰度的差值,以及第一层邻域像素点与第二层邻域像素点灰度的差值;DAi=IAi-IODBi=IBi-IAi其中,DAi表示第i个方向上中心点与第一层邻域像素点灰度的差值,0≤i≤7,DBi表示第i个方向上第一层邻域像素点与第二层邻域像素点灰度的差值,IO表示中心点灰度值,IAi和IBi分别表示第i个方向上第一层邻域与第二层邻域像素点的灰度值;(4b)计算每个方向上的编码值CDCP_Si;CDCP_Si=S(DAi)×2+S(DBi)其中,S(DBi)=1,DBi≥00,DBi<0;]]>(4c)分别将(0,π/2,π,3π/2)与(π/4,3π/4,5π/4,7π/4)两组模式下的4个方向编码值进行加权联合,得到灰度差值符号矩阵;CDCP_SI=Σi=03CDCP_S2i×4i]]>CDCP_S2=Σi=03CDCP_S2i+1×4i]]>其中,CDCP_S1表示模式一的灰度差值符号矩阵,CDCP_S2表示模式二的灰度差值符号矩阵;(4d)分别将两种模式下的灰度差值符号矩阵转化为灰度差值符号直方图,再连接这两个直方图,生成每幅图像的灰度差值符号直方图CDCP_SH;CDCP_SH=[CDCP_S1H,CDCP_S2H]其中,CDCP_S1H表示模式一的灰度差值符号直方图,CDCP_S2H表示模式二的灰度差值符号直方图。步骤5,根据以上设置的两组模式计算图像的灰度差值绝值直方图。(5a)计算中心点像素与第一层邻域像素点灰度差值的绝对值,以及第一层邻域像素点与第二层邻域像素点灰度差值的绝对值;MAi=abs(IAi-IO)MBi=abs(IBi-IAi)其中,MAi表本文档来自技高网
...

【技术保护点】
一种基于CDCP局部描述子的遥感图像场景分类方法,包括:(1)输入遥感图像数据集;(2)采用Matlab自带的灰度化函数rgb2gray( )对输入的所有图像进行灰度化处理;(3)设置数据集中每幅图像像素点两层邻域的模式,即先将每个像素点的两层邻域分成0,π/4,π/2,3π/4,π,5π/4,3π/2,7π/4这8个方向,再将该8个方向分为两组:第一组为(0,π/2,π,3π/2),第二组为(π/4,3π/4,5π/4,7π/4);(4)计算数据集中每幅图像在上述两组模式下的灰度差值符号直方图,再将这两组模式下的灰度差值符号直方图连接起来,生成图像的灰度差值符号直方图;(5)计算数据集中每幅图像在上述两组模式下的灰度差值绝对值直方图,再将这两组模式下的灰度差值绝对值直方图连接起来,生成图像的灰度差值绝对值直方图;(6)将图像的灰度差值符号直方图和灰度差值绝对值直方图连接起来,生成图像的特征向量;(7)在数据集的每一类遥感场景图像中,随机地选择其中80%的图像的特征向量作为训练集,其余图像的特征向量作为测试集;(8)对特征向量进行归一化处理,即将训练集与测试集一起归一化到[0,1]区间;(9)以归一化后的特征向量作为分类特征,采用SVM分类器对数据集中所有图像进行分类,即利用训练集建立SVM分类模型,再利用该分类模型对测试集进行预测。...

【技术特征摘要】
1.一种基于CDCP局部描述子的遥感图像场景分类方法,包括:(1)输入遥感图像数据集;(2)采用Matlab自带的灰度化函数rgb2gray( )对输入的所有图像进行灰度化处理;(3)设置数据集中每幅图像像素点两层邻域的模式,即先将每个像素点的两层邻域分成0,π/4,π/2,3π/4,π,5π/4,3π/2,7π/4这8个方向,再将该8个方向分为两组:第一组为(0,π/2,π,3π/2),第二组为(π/4,3π/4,5π/4,7π/4);(4)计算数据集中每幅图像在上述两组模式下的灰度差值符号直方图,再将这两组模式下的灰度差值符号直方图连接起来,生成图像的灰度差值符号直方图;(5)计算数据集中每幅图像在上述两组模式下的灰度差值绝对值直方图,再将这两组模式下的灰度差值绝对值直方图连接起来,生成图像的灰度差值绝对值直方图;(6)将图像的灰度差值符号直方图和灰度差值绝对值直方图连接起来,生成图像的特征向量;(7)在数据集的每一类遥感场景图像中,随机地选择其中80%的图像的特征向量作为训练集,其余图像的特征向量作为测试集;(8)对特征向量进行归一化处理,即将训练集与测试集一起归一化到[0,1]区间;(9)以归一化后的特征向量作为分类特征,采用SVM分类器对数据集中所有图像进行分类,即利用训练集建立SVM分类模型,再利用该分类模型对测试集进行预测。2.根据权利要求1所述的方法,步骤(4)中计算图像灰度差值符号直方图,具体步骤如下:(4a)计算中心点像素与其第一层邻域像素点灰度的差值,以及第一层邻域像素点与第二层邻域像素点灰度的差值;DAi=IAi-IODBi=IBi-IAi其中,DAi表示第i个方向上中心点与第一层邻域像素点灰度的差值,0≤i≤7,DBi表示第i个方向上第一层邻域像素点与第二层邻域像素点灰度的差值,IO表示中心点灰度值,IAi和IBi分别表示第i个方向上第一层邻域与第二层邻域像素点的灰度值;(4b)计算每个方向上的编码值CDCP_Si;CDCP_Si=S(DAi)×2+S(DBi)其中,S(DAi)=1,DAi≥00,DAi<0]]>S(DBi)=1,DBi≥00,DBi<0;]]>(4c)分别将(0,π/2,π,3π/2)与(π/4,3π/4,5π/4,7π/4)两组模式下的4个方向编码值进行加权联合,得到灰度差值符号矩阵;CDCP_S1=Σi=03CDCP_S2i×4i]]>CDCP_S2=Σi=03CDCP_S2i+1×4i]]>其中,CDCP_S1和CDCP_S2分别表示(0,π/2,π,3π/2)与(π/4,3π/4,5π/4,7π/4)模式下的灰度差值符号矩阵;(4d)分别将上述两组模式下的灰度差值符号矩阵转化为灰度差值符号直方图,再连接两个直方图,生成每幅图像的灰度差值符号直方图;CDCP_SH=[CDCP_S1H,CDCP_S2H]其中,CDCP_SH表示图像的灰度差值符号直方图,CDCP_S1H和CDCP_S2H分别表示(0,π/2,π,3π...

【专利技术属性】
技术研发人员:曹向海李泽瀚李星华梁甜焦李成
申请(专利权)人:西安电子科技大学
类型:发明
国别省市:陕西;61

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1