当前位置: 首页 > 专利查询>江苏大学专利>正文

一种视觉显著性目标的检测方法技术

技术编号:13456560 阅读:76 留言:0更新日期:2016-08-03 09:55
本发明专利技术公开了一种视觉显著性目标的检测方法,其步骤是:(1)输入待检测图像,在基于Itti视觉注意力模型的基础上运用谱残差和频率调制模型来提取改进后的颜色,亮度和方向的显著性图;(2)通过k均值聚类得到各个通道显著性图像中显著性区域与非显著性区的对比差,获得各个通道显著性图像的最优权值;(3)对各个通道的显著性图像加权,得到原始图像的显著性图,该显著性图的显著性区域即为目标区域。本发明专利技术能够改善现有视觉注意力模型的不足,有效地突出显著性区域和抑制非显著性区域,从而更好的模拟人类视觉注意力对自然场景目标的定位。

【技术实现步骤摘要】

本专利技术涉及机器视觉注意力,用于目标识别,尤其涉及到一种视觉显著性目标的检测方法
技术介绍
机器视觉注意力可以用来提取自然场景中的显著性的区域,是计算机视觉和模式识别系统中的关键技术,也是计算机视觉的后期处理的前提,视觉注意力的检测结果会直接影响计算机视觉的后期处理的效果,随着科技的发展,人们发现图像内容具有很强的复杂性,不适和将全部内容进行计算机视觉处理,研究者们受到人类视觉注意力系统的启发,希望机器视觉也像人类视觉系统那样具有高效的数据筛选能力,因此提出了机器视觉的视觉注意力模型。视觉注意力系统是是人类视觉系统的重要的前期处理系统,可以非均匀的分配感知资源,对原始的图像数据进行高效的筛选,将大部分的处理单元分配在感兴趣的区域上,从而提高视觉系统的处理能力。注意力是一个神经生理学的概念,许多神经生理学和心理学家都提出了很多人类视觉系统注意力的模型,用来解释人类在自然场景中可以将注意力集中在某个目标上的能力,受此启发,如何将计算机视觉也具有视觉注意力模型的能力就成了各国的研究者们研究的热门课题。视觉注意力模型分为两个大部分,一个是自下而上得数据驱动的模型,另一个是自上而下的任务驱动的模型,目前大多数模型都是基于自下而上的模型,首个机器视觉的注意力模型是由Milanese于1994年实现的,Milanese基于人类视觉系统的视觉感受野的中央—周围感受野的互相抑制原理,提出了中心—边缘操视觉注意力模型分为两个大部分,一个是自下而上得数据驱动的模型,另一个是自上而下的任务驱动的模型,目前大多数模型都是基于自下而上的模型,首个机器视觉的注意力模型是由Milanese于1994年实现的,Milanese基于人类视觉系统的视觉感受野的中央—周围感受野的互相抑制原理,提出了中心—边缘操作,产生对比度信息,目前最为经典的机器视觉注意力模型是由Itti(美国南加州大学教授)提出的,他在Milanese的中心—边缘操作的基础上,提出了多分辨率分解金字塔,通过多分辨率分解和中心—边缘操作来提取颜色,亮度,方向三个通道的特征图,并将这些特征图跨尺度整合到一个显著图中,从而显示出视觉系统的感兴趣区域,此模型不需要任何先验知识,在没有特定观测任务下,完全由输入图像的初级视觉特征决定,是一种初级的视觉注意力提取模型,Itti和koch在“Amodelofsaliency—basedvisualattentionforrapidsceneanalysis,IEEEtransactionsonpatternanalysisandmachineintelligence.VOL20,NO.11,november,1998”改进了该模型,取得了代表性的结果,受此启发,研究者们提出了各自的模型,在文献“Frequency-turnedSalientRegionDetectioncvpr2009”中,SabineSusstrunk等人提出了一种频域调制模型,此模型的显著性的检测效果一般,但具有很好的区域分割性能,在文献“SaliencyDetection:ASpectralResidualcvpr2007”中,侯晓迪先生提出了基于谱残差的模型,此模型不同于Itti等人关注图片上的突出部分的思路,而是关注图片的背景,找出图片背景的通用特性,但此模型忽略了图片的目标特性,这些模型在显著性区域提取的过程中,都有上述各自的不足,并将所有的特征等同对待,采用简单的线性加和的方法进行特征的整合,没有利用特征的权值进行特征的整合,所以在自然场景中的检测具有准确率低,易受背景环境的干扰的不足。本专利技术是主要解决现有的视觉注意力模型在自然各种场景中的目标检测中正确率低,易受自然场景中非显著区域的干扰的不足。
技术实现思路
针对现有的视觉注意力模型在自然各种场景中的目标检测中正确率低,易受自然场景中非显著区域的干扰的不足,本专利技术提供一种视觉显著性目标的检测方法。本专利技术一种视觉显著性目标的检测方法是通过如下技术方案实现的:一种视觉显著性目标的检测方法,包括如下步骤:步骤1将原始图像分为三个特征通道,包括颜色,亮度和方向通道图像;步骤2提取颜色通道的显著性图像:将颜色通道分为三个部分,分别是亮度部分、RG部分和BY部分;步骤2.1对步骤2中亮度部分、RG部分和BY部分分别运用Itti视觉注意力模型进行多分辨率分解,用中央—周边算子,突出各个特征图的显著部分和跨尺度合并,归一化后得到颜色通道的三个部分的显著性初次提取显著性图;步骤2.2对步骤2.1中进行初次提取的亮度、RG和BY显著性图像进行重构,构成RGB图像;步骤2.3运用频率调制模型对于重构后的RGB图像进行显著性的再次提取,得到颜色通道的显著性图C;步骤3提取步骤1中亮度和方向通道的显著性图像;步骤3.1对步骤3中亮度和方向通道的显著性图像分别做傅里叶变换,得到其各自的谱残差R(f)和相位谱p(f),再将谱残差R(f)和相位谱p(f)做二维离散傅里叶反变换,从而得到亮度和方向两个通道上的原始图像显著性初次提取的显著性图;步骤3.2对步骤3.1亮度和方向两个通道上初次提取的显著性图运用Itti视觉注意力模型对所得的显著性图分别进行多分辨率分解,再用中央—周边算子,突出各个特征图的显著部分和跨尺度合并,归一化后得到亮度和方向两个通道上的显著性的再次提取的显著性图B,D;步骤4对步骤2.3得到的颜色通道的显著性图C、步骤3.2得到的亮度和方向两个通道上的显著性的再次提取的显著性图B,D三个通道的显著性图像进行进一步地突出显著的特征;步骤5运用k均值聚类的算法将三个通道的显著性图像C、B、D中每幅显著性图像均聚为两类,即为显著性区域和非显著性区域,计算显著性区域centroid1和非显著性区域centroid2的对比差,公式为:compare=|centroid1-centroid2|其中,颜色、亮度、方向通道的对比差分别为compare(1)、compare(2)、compare(3);权值公式为: w e i g h t ( x ) = c o m p a r e ( x ) c o 本文档来自技高网
...

【技术保护点】
一种视觉显著性目标的检测方法,其特征在于:包括如下步骤:步骤1将原始图像分为三个特征通道,包括颜色,亮度和方向通道图像;步骤2提取颜色通道的显著性图像:将颜色通道分为三个部分,分别是亮度部分、RG颜色部分和BY颜色部分;步骤2.1对步骤2中亮度部分、RG部分和BY部分分别运用Itti视觉注意力模型进行多分辨率分解,用中央—周边算子,突出各个特征图的显著部分和跨尺度合并,归一化后得到颜色通道的三个部分的显著性初次提取显著性图;步骤2.2对步骤2.1中进行初次提取的亮度、RG和BY显著性图像进行重构,构成RGB图像;步骤2.3运用频率调制模型对于重构后的RGB图像进行显著性的再次提取,得到颜色通道的显著性图C;步骤3提取步骤1中亮度和方向通道的显著性图像;步骤3.1对步骤3中亮度和方向通道的显著性图像分别做傅里叶变换,得到其各自的谱残差R(f)和相位谱p(f),再将谱残差R(f)和相位谱p(f)做二维离散傅里叶反变换,从而得到亮度和方向两个通道上的原始图像显著性初次提取的显著性图;步骤3.2对步骤3.1亮度和方向两个通道上初次提取的显著性图运用Itti视觉注意力模型对所得的显著性图分别进行多分辨率分解,再用中央—周边算子,突出各个特征图的显著部分和跨尺度合并,归一化后得到亮度和方向两个通道上的显著性的再次提取的显著性图B,D;步骤4对步骤2.3得到的颜色通道的显著性图C、步骤3.2得到的亮度和方向两个通道上的显著性的再次提取的显著性图B,D三个通道的显著性图像进行进一步地突出显著的特征;步骤5运用k均值聚类的算法将三个通道的显著性图像C、B、D中每幅显著性图像均聚为两类,即为显著性区域和非显著性区域,计算显著性区域centroid1和非显著性区域centroid2的对比差,公式为:compare=|centroid1‑centroid2|其中,颜色、亮度、方向通道的对比差分别为compare(1)、compare(2)、compare(3);权值公式为:weight(x)=compare(x)compare(1)+compare(2)+compare(3)]]>其中,x取值为1、2、3。步骤6利用步骤5得到的各个通道的权值,对三个通道的显著性图像进行线性加和,从而得到原始图像的显著性图,公式为:SD=weight(1)×C+weight(2)×B+weight(3)×D其中,C为颜色通道的显著性图,B为亮度通道的显著性图,D为方向通道的显著性图,SD为原始图像显著性图像。...

【技术特征摘要】
1.一种视觉显著性目标的检测方法,其特征在于:包括如下步骤:
步骤1将原始图像分为三个特征通道,包括颜色,亮度和方向通道图像;
步骤2提取颜色通道的显著性图像:将颜色通道分为三个部分,分别是亮度部分、RG颜
色部分和BY颜色部分;
步骤2.1对步骤2中亮度部分、RG部分和BY部分分别运用Itti视觉注意力模型进行多
分辨率分解,用中央—周边算子,突出各个特征图的显著部分和跨尺度合并,归一化后得到
颜色通道的三个部分的显著性初次提取显著性图;
步骤2.2对步骤2.1中进行初次提取的亮度、RG和BY显著性图像进行重构,构成RGB
图像;
步骤2.3运用频率调制模型对于重构后的RGB图像进行显著性的再次提取,得到颜色通
道的显著性图C;
步骤3提取步骤1中亮度和方向通道的显著性图像;
步骤3.1对步骤3中亮度和方向通道的显著性图像分别做傅里叶变换,得到其各自的谱
残差R(f)和相位谱p(f),再将谱残差R(f)和相位谱p(f)做二维离散傅里叶反变换,
从而得到亮度和方向两个通道上的原始图像显著性初次提取的显著性图;
步骤3.2对步骤3.1亮度和方向两个通道上初次提取的显著性图运用Itti视觉注意力模型
对所得的显著性图分别进行多分辨率分解,再用中央—周边算子,突出各个特征图的显著部
分和跨尺度合并,归一化后得到亮度和方向两个通道上的显著性的再次提取的显著性图B,D;
步骤4对步骤2.3得到的颜色通道的显著性图C、步骤3.2得到的亮度和方向两个通道上
的显著性的再次提取的显著性图B,D三个通道的显著性图像进行进一步地突出显著的特征;
步骤5运用k均值聚类的算法将三个通道的显著性图像C、B、D中每幅显著性图像均聚
为两类,即为显著性区域和非显著性区域,计算显著性区域centroid1和非显著性区域centroid2
的对比差,公式为:
compare=|centroid1-centroid2|
其中,颜色、亮度、方向通道的对比差分别为compare(1)、compare(2)、compare(3);
权值公式为:
w e i g h t ( x ) = c o m p a r e ( x ) c o m p a r e ( 1 ) + c o m p a r e ( 2 ) + c o m p a r e ( 3 ) ]]>其中,x取值为1、2、3。
步骤6利用步骤5得到的各个通道的权值,对三个通道的显著性图像进行线性加和,从
而得到原始图像的显著性图,公式为:
SD=weight(1)×C+weight(2)×B+weight(3)×D
其中,C为颜色通道的显著性图,B为亮度通道的显著性图,D为方向通道的显著性图,
SD为原始图像显著性图像。
2.根据权利要求1所述的视觉显著性目标的检测方法,其特征在于:对步骤2中颜色通
道进行分类:分成亮度、RG和BY部分,其公式如下:
R = r - ( g + b ) 2 , G = g - r + ...

【专利技术属性】
技术研发人员:戴磊蔡英凤王海陈龙王爽江浩斌袁朝春徐兴
申请(专利权)人:江苏大学
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1