一种基于改进视觉词袋模型的图像分类方法技术

技术编号:14239350 阅读:246 留言:0更新日期:2016-12-21 14:49
本发明专利技术涉及一种基于改进视觉词袋模型的图像分类方法,针对场景图像,主要解决复杂背景下,传统分类模型不能充分表达同类图像的共有特征,从而导致分类准确度不高的问题;以及传统分类模型算法复杂度较高,实际运行效率低的问题,本发明专利技术相比其他利用视觉词袋模型进行图像分类的方法,能够突出同类图像共有的视觉单词,从而增强同类图像视觉词袋的相似性,在一定程度上提高分类的准确性,且利用Topology模型提高了生成视觉词典的效率,具有较强的实用价值。

An image classification method based on improved visual word bag model

The invention relates to a method of image classification based on improved visual bag of words model, aiming at the scene image, mainly to solve the complex background, the traditional classification model can not fully express the same image of characteristics, so that the classification accuracy is not high; and the traditional classification algorithm has high complexity, low efficiency and actual operation problems the invention, compared to other methods using the bag of words model for image classification, the same image can highlight common visual words, thereby enhancing the similarity of the same image bag of visual words, improve the classification accuracy in a certain extent, and the use of Topology model to improve the generating efficiency of the visual dictionary, has a strong practical value.

【技术实现步骤摘要】

本专利技术涉及一种图像分类方法,尤其涉及一种基于改进视觉词袋模型的图像分类方法,属于图像分类处理领域。
技术介绍
近年来,随着多媒体技术和互联网技术的快速发展,图像的产生与传播变得更加的方便与快捷,图像资源呈现快速的增长。其中,场景图像分类是图像研究领域的重要分支,是当前计算机视觉的热点问题。针对在交通场景下,监控摄像机和电子眼的大量使用,产生大量的交通场景图像,使得有效地管理这些图像变得愈加困难。为了更为有效地管理和检索交通场景图像,对场景图像分类技术的需求变得更加的迫切。如何结合现有的数据挖掘知识,对图像进行有效的特征提取和分类,是实现智慧交通要解决的关键技术之一,它的研究具有很大的理论价值和应用价值。在众多的图像分类方法中,由“词袋法”发展而来的视觉词袋模型(BOW,Bag of Words)是目前图像分类中较主流的方法之一。通常首先提取图像的局部特征,其次将这些特征矢量量化并构造视觉码本,特征矢量编码为视觉单词,从而每幅图像可以由不同频率的视觉单词表示。最后生成每幅图像的视觉单词直方图,通过训练分类器,检测出待判别的图像类型。例如,专利技术专利“基于视觉词典的图像分类方法”(专利申请号:201110175101.9,公开号:CN102208038A)即通过BOW模型构建视觉词典,并将图像用基于该视觉词典的直方图表示,建立模型对图像进行分类,该方法没有考虑图像特征点的空间布局信息;专利技术专利“基于空间局部聚合描述向量的图像分类方法”(专利申请号:201310180925.4,公开号:CN103295026A)中的方法考虑了特征点空间布局信息,用基于带有特征点空间分布的局部描述聚合向量训练分类器,实现图像分类。针对场景图像,其具有复杂的背景,上述方法无法避免的提取了相同的背景单词,在不同类图像间造成了相似性干扰,且场景图像易受遮挡,以及多标记的影响,同类视觉单词不突出。另外,上述方法复杂度高,实际应用中运行效率低,实时性较差。
技术实现思路
本专利技术的目的在于针对上述现有技术的不足,提出一种基于改进视觉词袋模型的图像分类方法。本专利技术的技术方案如下:一种基于改进视觉词袋模型的图像分类方法,具体包括以下步骤:步骤1,将图像集划分为训练图像集和测试图像集;步骤2,获取训练图像集的SIFT描述子:步骤2.1,利用尺度可变的二维高斯核函数与原始图像做卷积,将相邻尺度的两个高斯图像相减建立DOG尺度空间金字塔模型,具体计算为:L(x,y,σ)=G(x,y,σ)*I(x,y);D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y);其中G(x,y,σ)为可变尺度的二维高斯函数,L(x,y,σ)为图像函数的尺度空间,D(x,y,σ)为原始图像;σ为尺度空间因子,是高斯函数的标准差;I(x,y)为图像的二维函数表示,其中x和y是空间坐标,k为常数。步骤2.2,通过逐个比较每个像素点(x,y)的方法,找到相邻位置和相邻尺度内的特征点,并确定特征点的位置和尺度;步骤2.3,计算特征点邻域内每个像素点的梯度幅值和方向,计算公式为: m ( x , y ) = ( L ( x + 1 , y ) - L ( x - 1 , y ) ) 2 + ( L ( x , y + 1 ) - L ( x , y - 1 ) ) 2 ]]> θ ( x , y ) = tan - 1 [ L ( x , y + 1 ) - L ( x , y - 1 ) L ( x + 1 , y ) - L ( x - 1 , y ) ] ; ]]>其中,m(x,y)代表特征点梯度的大小,θ(x,y)代表特征点的梯度方向;步骤2.4,以特征点为中心,对其邻域分块并计算块内梯度直方图,生成SIFT描述子;步骤3,利用均值聚类方法聚类步骤2.2生成的所有特征点,进而生成视觉词典;步骤4,根据步骤3生成的视觉词典,生成每一幅图像的视觉词袋,进而提取同类图像视觉单词的最大频繁项集;步骤5,对视觉单词的最大频繁项集进行加权处理后生成其视觉单词直方图;步骤6,测试图像集处理过程和训练图像集步骤2到步骤5的处理过程相同,最后根据生成的视觉单词直方图训练SVM分类器实现场景图像的图像分类。作为本专利技术一种基于改进视觉词袋模型的图像分类方法的进一步优选方案,在步骤2中,特征点的提取和生成视觉词典的方法采用迭代Topology模型进行分布式并行改进。作为本专利技术一种基于改进视觉词袋模型的图像分类方法的进一步优选方案,在步骤4中,提取同类图像视觉单词的最大频繁项集的具体步骤如下:步骤4.1,扫描事务数据集一次,给定最小支持度产生频繁项目集及其支持度,按支持度降本文档来自技高网
...
一种基于改进视觉词袋模型的图像分类方法

【技术保护点】
一种基于改进视觉词袋模型的图像分类方法,其特征在于:具体包括以下步骤:步骤1,将图像集划分为训练图像集和测试图像集;步骤2,获取训练图像集的SIFT描述子:步骤2.1,利用尺度可变的二维高斯核函数与原始图像做卷积,将相邻尺度的两个高斯图像相减建立DOG尺度空间金字塔模型,具体计算为:L(x,y,σ)=G(x,y,σ)*I(x,y);D(x,y,σ)=(G(x,y,kσ)‑G(x,y,σ))*I(x,y);其中G(x,y,σ)为可变尺度的二维高斯函数,L(x,y,σ)为图像函数的尺度空间,D(x,y,σ)为原始图像;σ为尺度空间因子,是高斯函数的标准差;I(x,y)为图像的二维函数表示,其中x和y是空间坐标,k为常数。步骤2.2,通过逐个比较每个像素点(x,y)的方法,找到相邻位置和相邻尺度内的特征点,并确定特征点的位置和尺度;步骤2.3,计算特征点邻域内每个像素点的梯度幅值和方向,计算公式为:其中,m(x,y)代表特征点梯度的大小,θ(x,y)代表特征点的梯度方向;步骤2.4,以特征点为中心,对其邻域分块并计算块内梯度直方图,生成SIFT描述子;步骤3,利用均值聚类方法聚类步骤2.2生成的所有特征点,进而生成视觉词典;步骤4,根据步骤3生成的视觉词典,生成每一幅图像的视觉词袋,进而提取同类图像视觉单词的最大频繁项集;步骤5,对视觉单词的最大频繁项集进行加权处理后生成其视觉单词直方图;步骤6,测试图像集处理过程和训练图像集步骤2到步骤5的处理过程相同, 最后根据生成的视觉单词直方图训练SVM分类器实现场景图像的图像分类。...

【技术特征摘要】
1.一种基于改进视觉词袋模型的图像分类方法,其特征在于:具体包括以下步骤:步骤1,将图像集划分为训练图像集和测试图像集;步骤2,获取训练图像集的SIFT描述子:步骤2.1,利用尺度可变的二维高斯核函数与原始图像做卷积,将相邻尺度的两个高斯图像相减建立DOG尺度空间金字塔模型,具体计算为:L(x,y,σ)=G(x,y,σ)*I(x,y);D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y);其中G(x,y,σ)为可变尺度的二维高斯函数,L(x,y,σ)为图像函数的尺度空间,D(x,y,σ)为原始图像;σ为尺度空间因子,是高斯函数的标准差;I(x,y)为图像的二维函数表示,其中x和y是空间坐标,k为常数。步骤2.2,通过逐个比较每个像素点(x,y)的方法,找到相邻位置和相邻尺度内的特征点,并确定特征点的位置和尺度;步骤2.3,计算特征点邻域内每个像素点的梯度幅值和方向,计算公式为:其中,m(x,y)代表特征点梯度的大小,θ(x,y)代表特征点的梯度方向;步骤2.4,以特...

【专利技术属性】
技术研发人员:王诚陈杰
申请(专利权)人:南京邮电大学
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1