当前位置: 首页 > 专利查询>苏州大学专利>正文

一种共生模式图像挖掘方法技术

技术编号:19481184 阅读:20 留言:0更新日期:2018-11-17 10:40
本发明专利技术公开了一种共生模式图像挖掘方法,包括如下步骤:(1)利用SIFT算法提取图像中的视觉基元;(2)利用语境感知聚类将视觉基元聚类成语境相似组;(3)利用空间聚类将语境相似组分成对象组;(4)合并匹配模式,圈定对象组;(5)对每个对象组进行共生频率检测,在共生频率检测规则下筛出有意义的共生模式。本发明专利技术能快速,准确的发现图片中的共生视觉模式,以便于后续的视觉任务。

【技术实现步骤摘要】
一种共生模式图像挖掘方法
本专利技术涉及一种共生模式图像挖掘方法,属于图像检索

技术介绍
有意义的共生视觉模式被定义为在具有相似空间结构的图像中多次出现的模式。与背景相比,有意义的图案具有高视觉显着性,有意义的视觉模式是图像的重要特征,所以它们通常会使图像更加鲜明。发现有意义的经常性视觉模式在计算机视觉中有许多应用,例如图像识别和分割,图像编码,压缩和汇总,图像分类和注释以及对象检索。目前基本上有两种方法来挖掘发现图像中的主题模式:(1)成对匹配,比较特征点之间的数量;(2)语境感知聚类,它在聚类时考虑了视觉基元的空间结构。然而,这两种方法存在严重的问题:即使已经采用优化方法,成对匹配算法中特征点之间的搜索和匹配过程也会导致高的计算复杂度。对于语境感知聚类算法,尽管寻找共生模式时可以避免搜索和匹配,但问题是无法从聚类结果中的所有模式中挑出最有意义的视觉模式。目前,多媒体数据暴增,互联网上很多图片、视频亟待被提取主题,以便于分类,检索。没有先验知识,很难确定目标群体的重要性。因此,寻找一种快速,简洁,有效的共生模式挖掘算法就显得尤为重要。凭借这一算法,一些具有共生模式的图片/视频可以被自动提取出来,并根据提取出的共生模式进行图片/视频分类,显然是有必要的。
技术实现思路
本专利技术的专利技术目的是提供一种共生模式图像挖掘方法,能快速,准确的发现图片中的共生视觉模式。为达到上述专利技术目的,本专利技术采用的技术方案是:一种共生模式图像挖掘方法,包括如下步骤:(1)利用SIFT算法提取图像中的视觉基元;(2)利用语境感知聚类将视觉基元聚类成语境相似组;(3)利用空间聚类将语境相似组分成对象组;(4)合并匹配模式,圈定对象组;(5)对每个对象组进行共生频率检测,在共生频率检测规则下筛出有意义的共生模式。优选地,步骤(2)在所述语境感知聚类中,使用原始特征的K均值聚类,将视觉基元分类为M个不同的视觉词汇,然后在每个基元的预定空间邻域内产生一个M维合集矢量,然后采用嵌套EM算法来最小化损失函数并且最终获得个语境相似组。优选地,所述步骤(3)具体包括:应用K均值算法来生成空间分离的图案;采用轮廓系数方法来评估K均值算法在不同簇数量下的分类性能,确定空间聚类的数量,通过评估,选择最佳数量的簇,通过空间聚类,获得模式的中级描述,即对象组。优选地,所述步骤(4)具体包括:对于对象组它的空间中心记为由下式计算得:其中xj是vj的位置;用表示和之间的欧几里得距离,如果其中ξ是阈值参数,则将记为一个匹配对,这种联合对的频率被定义为:如果F(p,q)>ηP,将组Wp和Wq合并,其中P是所有上下文相同的组中的对象组的总体量,并且η是阈值参数;对于合并的W组,再次应用空间聚类来将其划分为对象组;利用最大得分法定位对象组使用矩形区域圈定对象组使其内部得分最高;当圈定对象组时,将正得分ξ分配给属于的视觉基元,而负得分ζ被分配给图像中的其他像素。优选地,所述步骤(5)具体包括:统计每个语境相似组中的每个内部视觉基元在同语境相似组内其他对象组中出现的配对的数量然后计算中配对出现的频率其中是中基元与其他对象组基元所有可能配对的数目,如果即保留这个对象组。上述技术方案中,步骤(2)中的语境感知聚类旨在将所有视觉基元分类为更高级别的候选模式,以发现有意义的共生模式。共生视觉模式通常具有相似的空间结构以及相似的特征描述符。因此,为了将视觉基元在特征域聚类,采用语境感知聚类作为算法的第一步。在语境感知聚类中,通过使用原始特征的K均值聚类,视觉基元被分类为M个不同的视觉词汇。然后,在每个基元的预定空间邻域内,可以产生一个M维合集(视觉短语)矢量,它表示在邻域中出现的不同类别的视觉基元的共现。这些合集使我们能够通过进一步应用K均值聚类发现更高层次的空间模式。语境感知聚类算法通过对视觉基元和视觉合集的K均值聚类目标进行联合优化,可以减少视觉原始聚类的模糊性,提高模式挖掘结果。因此,使用语境感知聚类来挖掘视觉模式。在语境感知聚类中,损失函数可以表示为:其中rij是视觉基元的二进制指示标,rij=1代表第i个视觉基元被标记为第j个视觉词语,反之亦然;r‘ij是视觉合集的二进制指示标,r’ij=1代表第i个视觉合集被标记为第j个视觉短语,反之亦然。d(fi,uj)代表fi和uj的欧式距离,代表ti和间的汉明距离。损失函数的第一项表示视觉基元{fi}与视觉词语中心{uj}之间的失真,而第二项表示交易{ti}和视觉短语中心之间的失真。结合这两个方面,具有相似特征和空间结构的视觉基元可以归入同一组。采用嵌套EM算法来最小化损失函数并且最终获得个语境相似组。在相同的语境相似组中的视觉基元表现出它们的在特征描述符和空间结构上的相似性,这暗示这些基元是特定视觉模式的组成元素。嵌套EM算法是用来优化语境聚类的损失函数的迭代算法,对于损失函数:其中J1和J2项是耦合的,意味着无法通过分别最小化这两项来最小化J。因此,对损失函数做如下变形:先定义矩阵Q,Q中元素qij=1表示第i个视觉基元属于第j个视觉基元的空间上下文。因此合集的数据集T可以被表示为T=RQ。视觉合集与视觉短语的失真矩阵可表示为于是,损失函数可以表示为:首先固定住R,更新令便得到这时我们只要更新J2,因为J1是常数,然后固定住更新R:令便得到这时只要更新J3,因为J4是常数。然后,根据得到的标记矩阵R和可以计算出新的失真矩阵D和如此往复更新损失函数,直至算法收敛。由于上述技术方案运用,本专利技术与现有技术相比具有下列优点:本专利技术能快速,准确的发现图片中的共生视觉模式,以便于后续的视觉任务:例如图像识别和分割,图像编码,压缩和汇总,图像分类和注释以及对象检索。附图说明图1是本专利技术的流程示意图。图2是本专利技术实施例一中通过语境感知聚类得到的语境相似的组的示意图。具体实施方式下面结合附图及实施例对本专利技术作进一步描述:实施例一:参见图1所示,为本专利技术的流程示意图,现有一张含有共生模式的图像,(1)首先用SIFT(尺度不变特征变换)算法提取出视觉基元,(2)然后用语境感知聚类对这些基元进行聚类。通过使用原始特征的K均值聚类,视觉基元被分类为M个不同的视觉词汇。然后,在每个基元的预定空间邻域内,可以产生一个M维合集(视觉短语)矢量,它表示在邻域中出现的不同类别的视觉基元的共现。这些合集能够通过进一步应用K均值聚类发现更高层次的空间模式。我们的目标是最小化其损失函数:采用嵌套EM算法来优化这个损失函数,先将损失函数改写:首先固定住R,更新令便得到这时我们只要更新J2,因为J1是常数然后固定住更新R:令我们便得到这时我们只要更新J3,因为J4是常数。然后,根据得到的标记矩阵R和可以计算出新的失真矩阵D和如此往复更新损失函数,直至算法收敛。(3)在语境感知聚类之后,获得了个语境相似的组,参见图2所示。每个语境相似组表示为Wk={vj},其中vj是由SIFT检测到的视觉基元。再次应用K均值算法来生成空间分离的图案。为了确定空间聚类的数量,我们采用轮廓系数方法来评估K均值算法在不同簇数量下的分类性能。通过评估,我们可以选择最佳数量的簇。通过空间聚类,获得模式的中级描述,即对象组。我们使用来表示Wk中第j个对象组。每个对象组是一个候选视觉模式本文档来自技高网...

【技术保护点】
1.一种共生模式图像挖掘方法,其特征在于,包括如下步骤:(1)利用SIFT算法提取图像中的视觉基元;(2)利用语境感知聚类将视觉基元聚类成语境相似组;(3)利用空间聚类将语境相似组分成对象组;(4)合并匹配模式,圈定对象组;(5)对每个对象组进行共生频率检测,在共生频率检测规则下筛出有意义的共生模式。

【技术特征摘要】
1.一种共生模式图像挖掘方法,其特征在于,包括如下步骤:(1)利用SIFT算法提取图像中的视觉基元;(2)利用语境感知聚类将视觉基元聚类成语境相似组;(3)利用空间聚类将语境相似组分成对象组;(4)合并匹配模式,圈定对象组;(5)对每个对象组进行共生频率检测,在共生频率检测规则下筛出有意义的共生模式。2.根据权利要求1所述的共生模式图像挖掘方法,其特征在于,步骤(2)在所述语境感知聚类中,使用原始特征的K均值聚类,将视觉基元分类为M个不同的视觉词汇,然后在每个基元的预定空间邻域内产生一个M维合集矢量,然后采用嵌套EM算法来最小化损失函数并且最终获得个语境相似组。3.根据权利要求1所述的共生模式图像挖掘方法,其特征在于,所述步骤(3)具体包括:应用K均值算法来生成空间分离的图案;采用轮廓系数方法来评估K均值算法在不同簇数量下的分类性能,确定空间聚类的数量,通过评估,选择最佳数量的簇,通过空间聚类,获得模式的中级...

【专利技术属性】
技术研发人员:杨剑宇黄瑶邓宇阳朱晨
申请(专利权)人:苏州大学
类型:发明
国别省市:江苏,32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1