一种基于稀疏编码的视频指纹提取方法技术

技术编号:12789355 阅读:75 留言:0更新日期:2016-01-28 19:16
本发明专利技术公开了一种基于稀疏编码的视频指纹提取方法,先通过SURF算法对预选视频帧图像特征进行提取,得到训练特征点集,通过对训练特征点集进行稀疏处理,进而得到稀疏词典;再通过SURF算法对待处理视频进行稀疏编码,从而构建出视觉词典并统计出词频信息;最后对视频的每一帧的词频统计结果均使用相似保存哈希算法转换为一串16进制的序列,从而得到每一视频帧的最简指纹,再按照视频帧在视频中的时间顺序,将最简指纹进行串联,得到视频指纹。

【技术实现步骤摘要】

本专利技术属于视频指纹及数据检索
,更为具体地讲,设及一种基于稀疏编 码的视频指纹提取方法。
技术介绍
视频本身包含的图像内容具有独特的时间特性与空间特性,不同视频之间存在较 大的差异,而对于同一视频遭受不同攻击,其时间特性与空间特性受影响较小,运种唯一性 类似于人类的指纹特征,我们把视频的运种特征称之为"视频指纹"。视频指纹作为一口新 兴的视频图像处理技术,对视频内容特征提取并加工处理,进而到唯一表示视频的目的。通 过对比两段视频的"指纹序列",可W寻找出视频之间的相似性与异己性,进而实现对视频 进行版权保护及内容检测。对视频指纹的提取,避免了向数字媒体中嵌入信息,破坏原信息 的完整性,且实时性与准确性较好。 自1999年Lowe提出SIFT (Scale Invariant Fea1:ure Transform)算法W来,人 们可W通过在尺度空间中寻找极值点来获得图像的局部特征,运种局部特征具有良好的旋 转、尺度W及仿射等不变性。2004年,Lowe针对SITF算法完善了其特征配准算法。2006 年,Bay在Lowe的算法基础之上,融入积分图像W及Harr小波,其运算效率较SIFT略胜一 筹。在此基础上,Bounch通过添加区分图像滤波器学习提取SURF特征点,进而对特征点采 用多普图像增强来提高特征点的区分性;杜冬梅等人在原SURF算法基础上对积分图像算 法改进来减少运算时间;Lee则通过结合ASURF (Advanced Spee-Up Robust化曰化'6) W及 DCD值ominant Color Descriptor)来提升图像恢复效率。然而,在视频处理领域,往往面临 着海量的数据处理,我们需要在提升指纹提取速率的同时依然维持结果的准确性W及鲁棒 性,上述方法不能较好的满足运一需求。受生物信息学启发,本文尝试对SURF结果进行稀 疏编码,从而只对少量的非零值进行存储计算来提升提取效率并降低存储开销。
技术实现思路
本专利技术的目的在于克服现有技术的不足,提供一种基于稀疏编码的视频指纹提取 方法,采用SURF算法对视频帖图像特征进行提取,并使用ti-i壯模型W及词频统计生成视 频指纹,实现对视频的唯一表示。 为实现上述专利技术目的,本专利技术,其特征在 于,包括W下步骤: (1)、构建稀疏词典 (1. 1)、利用SURF算法对预选的词典训练视频库进行提取特征点,得到训练特征 点集/ = 1.2,其中,m表示词典训练视频库中视频的个数;!W表示词典训练 视频库中第i个视频的特征点集,每个特征点集表示良示第 i个视频的第j帖中提取的特征点,其中k为视频帖的数量; (1.2)、计算稀疏系数[000引设训练特征点集ξ对应的稀疏系数集合关,其中表示 第i个特征点集对应的稀疏系数集;设稀疏词典B=b,,j= 1,2, 一,Ν,其中,b,为基向量,N表示稀疏词典中基向量个数;在稀疏词典训练初始阶段,初始稀疏词典B由基向量随机生 成; 将训练特征点集ξ中的!W和初始稀疏词典B代入到公式(1)中,求出!'11对应的 稀疏系数集;[001引其中,。,0,C均为常系数,早表示稀疏系数集f3中第j个特征点,III Γ为平方 差,wO为稀疏函数,运里为1范式; (1.3)、更新稀疏词典 (1.3. 1)、将J…作为输入训练集,同矿1'对应的稀疏系数;…一起代入到公式似 中,求出稀疏词典B的最优解;(2)[001引其中,d为常数,Bi, ,为稀疏词典中第i行第j列值; (1.3. 2)、利用拉格朗日对偶算法,用步骤(1.3. 1)中求出的最优解对原始稀疏词 典B进行更新,更新后的稀疏词典标记为B%[001引 (1. 3. 3)、将稀疏词典护代入到公式(1)中,求解出!对应的稀疏系数;>并按 照步骤(1.2)~(1.3)所述的方法进行迭代,直到第m个特征点集,得到最终更新后的 稀疏词典名;[001引 (2)、稀疏编码 利用SURF算法对待处理视频进行提取特征点,得到特征点集ζ=化,了2,…,Tm}, Tm表示待处理视频中第Μ帖提取出来的特征点集合; 将ζ和稀疏词典i代入到公式(1)中,求出ζ对应的稀疏系数s' ;将ζ作为输 入集合,采用特征符号算法求解最优解; (3)[002引其中,g为稀疏系数,,II II康示求1范式; 求得的结果即为待处理视频特征点集的稀疏编码结果,记为2;.= {^,记…,^'/}, 表示第Μ帖特征点对应的稀疏编码结果;(3)、构建视觉词典并统计词频信息[002引 (3. 1)、利用步骤似所述的方法,对训练特征点集附进行稀 疏编码,再利用Kmeans聚类算法对稀疏编码结果进行聚类,聚类簇为Q个,每个聚类中屯、作 为一个视觉单词,从而得到视觉词典W= {Wi,W2, ···,%}; (3. 2)、将步骤似中稀疏编码结果Tsc中每一帖的集合技与视觉词典中的视觉单 词进行欧式距离计算;C4)其中,v,、Vq为向量,V,表示7;中的稀疏编码后的一个特征点的向量值,Vq表示视 觉词典W中的一个视觉单词的向量值;选择最小欧式距离的视觉单词,并标记为该视频帖 中对应的特征点;(3. 3)、利用ti-i壯模型对每个视频帖的特征点进行词频统计,即:(5)[00础其中,riMd表示视频第Μ帖包含的视觉单词数量,η康示第Μ帖包含的总的视觉单 词数量,Ρ为视频帖的数量,1?表示包含视觉单词的视频帖数量; 每一帖的统计结果生成一个直方图,横坐标为所有视觉单词,纵坐标为每个视觉 单词在该帖中的统计频率; (4)、提取视频指纹 将步骤化3)中每一视频帖的词频统计结果均使用相似保存哈希算法转换为一 串16进制的序列,从而得到每一视频帖的最简指纹,再按照视频帖在视频中的时间顺序, 将最简指纹进行串联,得到视频指纹。 本专利技术的专利技术目的是运样实现的: 本专利技术基于稀疏编码的视频指纹提取方法,先通过SURF算法对预选视频帖图像 特征进行提取,得到训练特征点集,通过对训练特征点集进行稀疏处理,进而得到稀疏词 典;再通过SURF算法对待处理视频进行稀疏编码,从而构建出视觉词典并统计出词频信 息;最后对视频的每一帖的词频统计结果均使用相似保存哈希算法转换为一串16进制的 序列,从而得到每一视频帖的最简指纹,再按照视频帖在视频中的时间顺序,将最简指纹进 行串联,得到视频指纹。 同时,本专利技术基于稀疏编码的视频指纹提取方法还具有W下有益效果:(1)、通过SURF算法获取特征点的特征矢量,运样将特征描述符的维度由原来的 64维降到24维,SURF算法获取的特征点还具有较强的尺度、旋转、亮度等不变性;(2)、本专利技术是基于哺乳动物视觉图像稀疏编码原理,选用标准库训练生成稀疏词 典,再根据稀疏词典对视频帖特征点进行稀疏编码,最后对编码后的非零值进行处理,从而 减少视频指纹提取的存储开销与计算开销; (3)、通过实验仿真分析,本专利技术依然能维持原特征点的鲁棒性,且具有较好的区 分性W及准确性。...

【技术保护点】
一种基于稀疏编码的视频指纹提取方法,其特征在于,包括以下步骤:(1)、构建稀疏词典(1.1)、利用SURF算法对预选的词典训练视频库进行提取特征点,得到训练特征点集其中,m表示词典训练视频库中视频的个数;表示词典训练视频库中第i个视频的特征点集,每个特征点集表示表示第i个视频的第j帧中提取的特征点,其中k为视频帧的数量;(1.2)、计算稀疏系数设训练特征点集ξ对应的稀疏系数集合为其中,表示第i个特征点集对应的稀疏系数集;设设稀疏词典B=bj,j=1,2,…,N,其中,bj为基向量,N表示稀疏词典中基向量个数;在稀疏词典训练初始阶段,初始稀疏词典B由基向量随机生成;将训练特征点集ξ中的和初始稀疏词典B代入到公式(1)中,求出对应的稀疏系数集其中,σ,β,c均为常系数,表示稀疏系数集中第j个特征点,||||2为平方差,为稀疏函数,这里为1范式;(1.3)、更新稀疏词典(1.3.1)、将作为输入训练集,同对应的稀疏系数一起代入到公式(2)中,求出稀疏词典B的最优解;minimize||ξ→(i)-Bs→(i)||2Σi=1mBi,j2≤d,∀j=1,2,...n---(2)]]>其中,d为常数,Bi,j为稀疏词典中第i行第j列值;(1.3.2)、利用拉格朗日对偶算法,用步骤(1.3.2)中求出的最优解对原始稀疏词典B进行更新,更新后的稀疏词典标记为B*。(1.3.3)、将稀疏词典B*代入到公式(1)中,求解出对应的稀疏系数并按照步骤(1.2)~(1.3)所述的方法进行迭代,直到第m个特征点集得到最终更新后的稀疏词典(2)、稀疏编码利用SURF算法对待处理视频进行提取特征点,得到特征点集ζ={T1,T2,…,TM},TM表示待处理视频中第M帧提取出来的特征点集合;将ζ和稀疏词典代入到公式(1)中,求出ζ对应的稀疏系数s';将ζ作为输入集合,采用特征符号算法求解最优解;其中,γ为稀疏系数,||||1表示求1范式;求得的结果即为待处理视频特征点集的稀疏编码结果,记为表示第M帧特征点点对应的稀疏编码结果;(3)、构建视觉词典并统计词频信息(3.1)、利用步骤(2)所述的方法,对训练特征点集进行稀疏编码,再利用Kmeans聚类算法对稀疏编码结果进行聚类,聚类簇为Q个,每个聚类中心作为一个视觉单词,从而得到视觉词典W={w1,w2,…,wQ};(3.2)、将步骤(2)中稀疏编码结果Tsc中每一帧的集合与视觉词典中的视觉单词进行欧式距离计算;minTSCc,WΣvz∈TSCc,vq∈W(vz-vq)2---(4)]]>其中,vz、vq为向量,vz表示中的稀疏编码后的一个特征点的向量值,vq表示视觉词典W中的一个视觉单词的向量值;选择最小欧式距离的视觉单词,并标记为该视频帧中对应的特征点;(3.3)、利用ti‑idf模型对每个视频帧的特征点进行词频统计,即:tM=nMdndlogpnM---(5)]]>其中,nMd表示视频第M帧包含的视觉单词数量,nd表示第M帧包含的总的视觉单词数量,p为视频帧的数量,nM表示包含视觉单词的视频帧数量;每一帧的统计结果生成一个直方图,横坐标为所有视觉单词,纵坐标为每个视觉单词在该帧中的统计频率;(4)、提取视频指纹将步骤(3.3)中每一视频帧的词频统计统计结果均使用相似保存哈希算法转换为一串16进制的序列,从而得到每一视频帧的最简指纹,再按照视频帧在视频中的时间顺序,将最简指纹进行串联,得到视频指纹。...

【技术特征摘要】

【专利技术属性】
技术研发人员:徐杰吴鹏
申请(专利权)人:成都纽捷那科技有限公司
类型:发明
国别省市:四川;51

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1