基于Gist特征与极限学习机的场景分类方法技术

技术编号:11415169 阅读:109 留言:0更新日期:2015-05-06 15:01
一种基于Gist特征与极限学习机的场景分类方法,先提取图像的Gist特征,采用Gabor小波对场景图像进行卷积操作,然后提取Gist向量作为场景图像的特征描述,将此特征描述用于场景分类当中。本发明专利技术利用Gist特征对图像产生一个综合的认知、综合描述了自然度,开放度,粗略度,展开度和崎岖度五种自然属性,相比较传统的场景分类方法可以避免根据各种实际情况设置不同的参数和门限。解决了传统分类中在变化情况较多条件下必须不断调整分类门限的技术难题,运算速度快且具有很好的泛化能力,扩展性很好,随着分类情况复杂度提高、规模的扩大表现出来的优越性越好。

【技术实现步骤摘要】

【技术保护点】
基于Gist特征与极限学习机的场景分类方法,其特征在于包括以下步骤:A图像Gist特征提取:采用Gabor小波对场景图像进行卷积操作,然后提取Gist向量作为场景图像的特征描述,将此特征描述用于接下来的场景分类当中,具体过程为:一幅大小为r×c的灰度图像f(x,y)用m尺度n方向的Gabor滤波器组进行滤波,即分别同nc个通道的滤波器进行卷积,其中nc=m×n,再级联卷积的结果,即为图像Gist特征,将一副大小为r×c的灰度图像f(x,y)划分成np×np的规则网格,各网格块按行依次记作Pi,其中i=1,...,ng;每个网格块大小为r'×c',分别用nc个通道的滤波器对图像进行卷积滤波,则每个网格块各通道滤波后,级联的结果称为块Gist特征,用GP表示每个网格块的Gist特征,对GP块各通道滤波结果取均值后按行组合的结果为全局Gist特征,用GG表示全局Gist特征:GG={G1P‾,G2P‾,···,GngP‾}---(1)]]>式中,GiP‾=1r′×c′Σ(x,y)∈PiGiP(x,y),]]>GG的维数为nc×ng。B极限学习机对Gist特征进行学习完成图像分类:设P个不同的训练样本为(xi,ti),其中xi=[xi1,xi2,...,xin]T∈Rn且ti=[ti1,ti2,...,tim]T∈Rm,i=1,2,...,N,学习网络建模为:Σj=1Mβjgj(xi)=Σj=1Mβjg(wj·xi+bj)=oi,i=1,2,...,N---(2)]]>其中,M是隐藏节点的个数,g(·)为激励函数,选用hardlim或hardlims,wj=[wj1,wj2,...,wjn]T∈Rn是输入节点与第j个隐藏节点的连接权重,bj∈R是第j个隐藏节点的偏置,βj=[βj1,βj2,...,βjm]T∈Rm是输出节点与第j个隐藏节点的连接权重,wj·xi表示wj和xi的内积;输入连接权重和隐层节点偏置(w,b)可随机选择,通过学习找到特定的βj,j=1,2,...,M使得分类总误差最小:min||ε||2,s.t.εi=ti‑oi,i=1,2,...,N            (3)其中,εi=[εi1,εi2,...,εin]T是第i个样本输出值与真实值间的差值;(3)式中,oi是输出值,是Gist特征输入后网络输出的值,ti是真实值,是类别的值;假设合理训练的隐层前馈神经网络SLFN能够无误差地逼近N个训练样本,式(3)改写为:Hβ=T或||Hβ‑T||=0                 (4)其中,H=g(w1·x1+b1)...g(wM·x1+bM)g(w1·x2+b1)...g(wM·x2+bM).........g(w1·xN+b1)...g(wM·xN+bN)N×M---(5)]]>β=β1t...βMTM×m,T=t1T...tNTN×m]]>H称为神经网络的隐层输出矩阵,H的第i行对应于所有隐藏节点对第i个训练输入xi的输出向量,而H中的第j列是第j个隐层节点对应于输入样本xk,k=1,2,...,N的输出向量;求解如下线性方程组的广义最小二乘获得||Hβ^-T||=minβ||Hβ-T||---(6)]]>上述线性方程组的广义最小二乘解为β^ =argminβ||Hβ-T||=H+T---(7)]]>其中H+=(HTH)‑1HT为隐层输出矩阵H的Moore‑Penrose广义逆;得到了后,测试网络就形成了,然后输入测试图片的Gist特征,进行测试分类,代入Hβ=O,求输出值o,与各类设置的类别的标签对比进行归类,确定所属类别。...

【技术特征摘要】

【专利技术属性】
技术研发人员:高颖慧王鲁平李飚王平梁楹张路平赵明范明喆
申请(专利权)人:中国人民解放军国防科学技术大学
类型:发明
国别省市:湖南;43

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1