基于显著性和深度卷积神经网络的图像中目标定位方法技术

技术编号:13675288 阅读:32 留言:0更新日期:2016-09-08 00:56
本发明专利技术公开了一种基于显著性和深度卷积神经网络的图像中目标定位方法,属于数字图像处理领域。本发明专利技术首先将采集的图像进行灰度化、降噪和灰度线性变换处理,以提高图像质量,增强背景和目标的对比度;然后根据谱残差理论对处理后的图像进行视觉显著性处理,获取包含目标区域的视觉显著图以及显著图的二值图,利用投影法来定位显著性区域并分割出显著性区域;再运用卷积神经网络对显著性区域进行分类,以区分出目标区域和非目标区域。本发明专利技术的方法对图像中目标的定位精准,能够适应光照条件的变化,具有自适应性以及运行速度快等特点。

【技术实现步骤摘要】

本专利技术涉及一种图像中目标定位的方法,具体地涉及一种基于显著性和深度卷积神经网络的图像中目标定位方法,属于数字图像处理领域。
技术介绍
在图像处理和计算机视觉研究领域中,目标物体的定位一直是一个热点、难点,目标的准确定位对于目标的识别以及图像的理解与分析起着十分重要的作用。目标的定位已经广泛应用于工业、农业、航天、军事、医疗器械等各个领域中。例如:在工业生产故障定位中,利用图像中目标定位方法可以快速定位故障位置,及时制止故障的蔓延,减少工作人员的劳动强度,提高企业效率。目前,图像中目标定位研究仍处于早期发展阶段。加拿大学者Lowe曾经提出了一种尺度不变特征变换算法(Scale Invariant Feature Transform,SIFT)来定位图像中的目标。这种方法能够增强特征的鲁棒性,实现特征描述算法对尺度和方向的无关性。但是在相似或对称的环境下,算法的准确率却变得很低,并且SIFT特征向量维数较高,计算量较大,匹配速度较慢。T.Ojala等人提出了一种局部二值模式(local binary pattern,LBP)算子,具有计算简单、部分的尺度、旋转和亮度的不变性等优点,但是它对光照变化的不变性是有条件的,即只对线性的光照具有不变性,这大大降低它的性能,限制了其适用范围。因此需要继续探索研究更加高效的计算机图像中目标定位方法。
技术实现思路
本专利技术的目的是为了快速定位图像中的目标,提供一种基于显著性和深度卷积神经网络的图像中目标定位方法。本专利技术的基于显著性和深度卷积神经网络的图像中目标定位方法,具体包括如下步骤:步骤1,对采集到的图像I(i,j),i<M,j<N进行灰度化和降噪处理;步骤2,在步骤1的基础上,对降噪后的图像进行灰度线性变换,记为
W,以增强图像目标与背景的对比度;步骤3,利用步骤2得到的灰度线性变换图像W,在此基础上计算显著图S;步骤4,对步骤3得到的显著图像S进行二值化处理,得到显著二值化图像G;步骤5,根据步骤4得到的图像G利用投影法来定位显著性区域并分割出显著性区域;步骤6,在步骤5的基础上,判断是否要训练深度卷积神经网络,如果不需要训练,则加载训练好的深度卷积神经网络(CNNs),进行CNNs特征提取,然后进行分类器分类,进而给出识别结果;若需要对CNNs进行训练,就训练CNNs,然后再进行分类器分类,给出训练结果。有益效果本专利技术的方法是基于显著性和深度卷积神经网络的图像中目标定位方法。由于视觉显著性不仅可以突显大量的目标,有时也会突显少量的特殊背景,鉴于此,引入深度卷积神经网络来去除少量的特殊背景,进而对图像目标进行定位。将具有选择性的视觉注意机制引入图像中的目标定位,提高图像分析的效率,减少运行时间,并用深度卷积神经网络进行目标分类,进一步提高目标定位的准确性。本专利技术的方法能够从图像中快速检测出目标的位置,可以减少定位目标所耗费的时间。本专利技术的图像中目标定位的方法具有自适应性,能够适应光照条件的变化。另外,本专利技术的图像中目标定位精准,运行速度快。附图说明图1为本专利技术的基于显著性和深度卷积神经网络的图像中目标定位的流程图;图2为本专利技术的具体实施方式中的一帧图像;图3为本专利技术的具体实施方式中图2所示图像的显著性图像;图4为本专利技术的具体实施方式中图3所示图像的二值图像;图5为本专利技术的具体实施方式中定位的目标区域。具体实施方式为了更好的说明本专利技术的目的和优点,下面结合附图对本专利技术作进一步的详细说明。一种基于显著性和深度卷积神经网络的图像中目标定位方法,其总体技术方案如图1所示,具体包括如下步骤:步骤1,对采集到的图像I(i,j),i<M,j<N进行灰度化和降噪处理;所述的降噪处理可以是几何处理、图像滤波、图像平滑和图像锐化的一种或多种方法组合使用。步骤2,在步骤1的基础上,对降噪后的图像进行灰度线性变换,记为W,以增强图像目标与背景的对比度;所述的灰度线性变换的计算公式为:W=fa*I+fb。其中,参数fa表示线性函数的斜率,fb表示线性函数在y轴的截距,当fa>1时,输出图像的对比度将增大;当fa<1时,输出图像的对比度将减小。步骤3,利用步骤2得到的灰度线性变换图像W,在此基础上计算显著图S;在计算显著图时,采用的是谱残差视觉显著性算法,具体包括如下步骤:(1)对图像W(i,j)傅里叶幅度对数谱进行卷积均值滤波;(2)从图像W傅里叶幅度对数谱中减去上一步的均值滤波结果,最终得到显著图S。其表达式为:S=log(A(W))-h(W)*log(A(W)),式中,A(W)表示图像W的傅里叶幅度谱,h(W)表示图像W的傅里叶幅度谱的均值滤波。步骤4,对步骤3得到的显著图像S进行二值化处理,得到显著二值化图像G;所述的图像二值化处理可以采用但不局限于如下方法,具体包括如下步骤:(1)利用OTSU方法计算阈值T;(2)根据步骤(1)得到的二值化阈值T,将显著图像S进行二值化处理,得到显著二值化图像,其表达式为: G ( i , j ) = 1 , S ( i , j ) ≤ T 0 , o t h e r s . ]]>步骤5,根据步骤4得到的图像G利用投影法来定位显著性区域并分割出显著性区域;所述的投影法来定位显著性区域,具体实施过程为对步骤4得到的图像G分别计算水平、垂直两个方向上的投影,得到图像中目标区域;所述的水平Xi和垂直Yj方向上的投影函数分别为: Y j = Σ i = 1 M G ( i , j ) . ]]>由于步骤5得到的区域既有目标区域又有少量的背景区域,在此基础上运用深度卷积神经网络进行分类。在使用深度卷积神经网络进行分类之前,需要对深本文档来自技高网
...

【技术保护点】
基于显著性和深度卷积神经网络的图像中目标定位方法,其特征在于:该方法包括如下步骤:步骤1,对采集到的图像I(i,j),i<M,j<N进行灰度化和降噪处理;步骤2,在步骤1的基础上,对降噪后的图像进行灰度线性变换,记为W,以增强图像目标与背景的对比度;步骤3,利用步骤2得到的灰度线性变换图像W,在此基础上计算显著图S;步骤4,对步骤3得到的显著图像S进行二值化处理,得到显著二值化图像G;步骤5,根据步骤4得到的图像G利用投影法来定位显著性区域并分割出显著性区域;步骤6,在步骤5的基础上,判断是否要训练深度卷积神经网络,如果不需要训练,则加载训练好的深度卷积神经网络(CNNs),进行CNNs特征提取,然后进行分类器分类,进而给出识别结果;若需要对CNNs进行训练,就训练CNNs,然后再进行分类器分类,给出训练结果。

【技术特征摘要】
1.基于显著性和深度卷积神经网络的图像中目标定位方法,其特征在于:该方法包括如下步骤:步骤1,对采集到的图像I(i,j),i<M,j<N进行灰度化和降噪处理;步骤2,在步骤1的基础上,对降噪后的图像进行灰度线性变换,记为W,以增强图像目标与背景的对比度;步骤3,利用步骤2得到的灰度线性变换图像W,在此基础上计算显著图S;步骤4,对步骤3得到的显著图像S进行二值化处理,得到显著二值化图像G;步骤5,根据步骤4得到的图像G利用投影法来定位显著性区域并分割出显著性区域;步骤6,在步骤5的基础上,判断是否要训练深度卷积神经网络,如果不需要训练,则加载训练好的深度卷积神经网络(CNNs),进行CNNs特征提取,然后进行分类器分类,进而给出识别结果;若需要对CNNs进行训练,就训练CNNs,然后再进行分类器分类,给出训练结果。2.根据权利要求1所述的基于显著性和深度卷积神经网络的图像中目标定位方法,其特征在于,所述的步骤1中,降噪处理可以是几何处理、图像滤波、图像平滑和图像锐化的一种或多种方法组合使用。3.根据权利要求1所述的基于显著性和深度卷积神经网络的图像中目标定位方法,其特征在于,所述的步骤2中,对降噪后的图像进行灰度线性变换,所述的灰度线性变换的计算公式为:W=fa*I+fb。其中,参数fa表示线性函数的斜率,fb表示线性函数在y轴的截距,当fa>1时,输出图像的对比度将增大;当fa<1时,输出图像的对比度将减小。4.根据权利要求1所述的基于显著性和深度卷积神经网络的图像中目标定位方法,其特征在于,所述的步骤3中,在计算显著图S时,采用的是谱残差视觉显著性算法,具体包括如下步骤:(1)对图像W(i,j)傅里叶幅度对数谱进行卷积均值滤波;(2)从图像W傅里叶幅度对数谱中减去上一步的均值滤波结果,最终得到显著图S,其表达式为:S=log(A(W))-h(W)*log(A(W)),式中,A(W)表示图像W的傅里叶幅度谱,h(W)表示图像W的傅里叶幅度谱的均值滤波。5.根据权利要求1所述的基于显著性和深度卷积神经网络的图像中目标定位方法,其特征在于,所述的步骤4中,显著图像二值化处理采用但不局限于如下方法,具体包括...

【专利技术属性】
技术研发人员:杨彦利赵燕飞王丽娟
申请(专利权)人:天津工业大学
类型:发明
国别省市:天津;12

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1