一种基于HOIRM和局部特征融合的行为识别方法技术

技术编号:13583084 阅读:101 留言:0更新日期:2016-08-24 09:47
一种基于HOIRM和局部特征融合的行为识别方法,包括:视频的时空兴趣点检测;对所有时空兴趣点使用3D HOG和3D HOF描述子进行描述得到联合的特征向量;根据每一帧的时空兴趣点分布情况提取兴趣点区域ROI;根据ROI提取视频的兴趣点区域运动方向直方图特征HOIRM;对三种特征采用累加直方图的方法进行多特征融合;对所有的特征向量进行K‑Means聚类生成视觉词典,并用视觉词典重新描述特征向量;用视觉词典描述测试视频的特征向量;用支持向量机对前两步得到的特征进行学习和分类,得到测试视频的行为类别。本发明专利技术提高了局部特征在复杂场景下对摄像机的视角变化、距离变化的鲁棒性,有利于提高真实环境下行为识别的正确率。

【技术实现步骤摘要】

本专利技术涉及图像处理、视频处理、模式识别等领域,尤其涉及基于视频的人体行为识别领域。
技术介绍
根据对行为特征描述的不同,基于视频的人体行为识别方法大体上可分为两大类:基于全局特征的方法和基于局部时空兴趣点的方法。基于局部时空兴趣点的方法因其对各种干扰都具有较好的鲁棒性而成为目前主流的方法,这种方法通过检测像素值在时空邻域有显著变化的兴趣点并从中提取底层特征来进行行为描述,无需对图像进行前背景分割和目标跟踪。但纯粹的局部特征之间非常离散,完全忽视了人体的全局特性,因此在某些人体轮廓形状单一的视频数据库下测试,其识别率还略低于基于全局特征的方法。也有将全局特征与局部特征直接融合,在某些测试数据库上识别率有了一定的提高,但是两种不同类别的特征融合本身就比较困难,且全局特征的提取十分繁琐,离不开目标检测和跟踪,从某种意义上又回到了基于全局特征的方法。
技术实现思路
为了克服现有特征提取方法的人体行为识别率不高的不足,本专利技术提出一种基于HOIRM和局部特征融合的行为识别方法,该方法提取的特征可看成是介于局部特征和全局特征之间的一种中层特征,这种中层特征既具有局部特征的优点又加入了全局特征的特性,同时避免了提取全局特征所需的繁琐步骤,进一步提高了局部特征在复杂场景下对摄像机的视角变化、距离变化的鲁棒性,有利于提高真实环境下行为识别的正确率。本专利技术解决其技术问题所采用的技术方案是:一种基于HOIRM和局部特征融合的行为识别方法,包括以下步骤:步骤1,对所有视频进行时空兴趣点检测;步骤2,使用3D HOG和3D HOF描述子对检测到的所有时空兴趣点进行特征向量描述;步骤3,根据每一帧的时空兴趣点分布情况提取兴趣点区域ROI;步骤4,根据ROI提取视频的兴趣点区域运动方向直方图特征HOIRM;步骤5,兴趣点区域的HOIRM特征与步骤2中由3D HOG和3D HOF描述兴趣点获得的特征向量进行特征融合;步骤6,对训练视频多特征融合后的特征向量构建词袋模型,即对训练视频所有的特征向量进行K-Means聚类生成视觉词典,并用视觉词典重新描述特征向量;步骤7,用步骤6构建的视觉词典描述测试视频的特征向量;步骤8,用步骤6得到的特征向量训练支持向量机分类器,用已训练的支持向量机分类器对步骤7得到的测试视频特征向量分类,得到测试视频行为类别。进一步,所述步骤1中,采用Bregonzio兴趣点检测算法对视频进行兴趣点检测,得到时空兴趣点集,根据获取的每一个时空兴趣点(x,y,t)确定其所在的帧以及在整段视频序列中的空间位置,其中x,y表示兴趣点在每一帧上的坐标位置,t表示当前所在帧的时间。再进一步,所述步骤2中,使用3D HOG和3D HOF描述子进行联合描述的过程为:以每一个时空兴趣点(x,y,t)为中心,构建空间立方体Patch,简称P,其中大小为(H,W,T),H、W、T分别表示立方体的高、宽、长,分别用3D HOG和3D HOF特征描述子进行描述,得到时空特征向量L,以空间立方体P的8个顶点为中心,分别构建跟P相同大小的空间立方体P1,P2,…,P8,同样,分别采用3D HOG和3D HOF特征描述子进行描述,得到时空特征向量L1,L2,…,L8,将得到的时空特征向量L跟L1,L2,…,L8拼接在一起,得到9个空间立方体的3D HOG和3D HOF特征,作为兴趣点(x,y,t)的时空描述子;更进一步,所述步骤3中,提取视频的兴趣点区域的过程为:计算每一帧所有兴趣点空间的质心位置其中横纵坐标的计算方式分别为xi和yi分别表示当前帧第i个兴趣点空间位置的横、纵坐标,n表示当前帧的兴趣点数,计算所有兴趣点到质心的距离di,选出最大距离dmax,dmax=max{d1,d2,......,dn本文档来自技高网...

【技术保护点】
一种基于HOIRM和局部特征融合的行为识别方法,其特征在于:所述行为识别方法包括以下步骤:步骤1,对所有视频进行时空兴趣点检测;步骤2,使用3D HOG和3D HOF描述子对检测到的所有时空兴趣点进行特征向量描述;步骤3,根据每一帧的时空兴趣点分布情况提取兴趣点区域ROI;步骤4,根据ROI提取视频的兴趣点区域运动方向直方图特征HOIRM;步骤5,兴趣点区域的HOIRM特征与步骤2中由3D HOG和3D HOF描述兴趣点获得的特征向量进行特征融合;步骤6,对训练视频多特征融合后的特征向量构建词袋模型,即对训练视频所有的特征向量进行K‑Means聚类生成视觉词典,并用视觉词典重新描述特征向量;步骤7,用步骤6构建的视觉词典描述测试视频的特征向量;步骤8,用步骤6得到的特征向量训练支持向量机分类器,用已训练的支持向量机分类器对步骤7得到的测试视频特征向量分类,得到测试视频行为类别。

【技术特征摘要】
1.一种基于HOIRM和局部特征融合的行为识别方法,其特征在于:所述行为识别方法包括以下步骤:步骤1,对所有视频进行时空兴趣点检测;步骤2,使用3D HOG和3D HOF描述子对检测到的所有时空兴趣点进行特征向量描述;步骤3,根据每一帧的时空兴趣点分布情况提取兴趣点区域ROI;步骤4,根据ROI提取视频的兴趣点区域运动方向直方图特征HOIRM;步骤5,兴趣点区域的HOIRM特征与步骤2中由3D HOG和3D HOF描述兴趣点获得的特征向量进行特征融合;步骤6,对训练视频多特征融合后的特征向量构建词袋模型,即对训练视频所有的特征向量进行K-Means聚类生成视觉词典,并用视觉词典重新描述特征向量;步骤7,用步骤6构建的视觉词典描述测试视频的特征向量;步骤8,用步骤6得到的特征向量训练支持向量机分类器,用已训练的支持向量机分类器对步骤7得到的测试视频特征向量分类,得到测试视频行为类别。2.如权利要求1所述的一种基于HOIRM和局部特征融合的行为识别方法,其特征在于:所述步骤1中,采用Bregonzio兴趣点检测算法对视频进行兴趣点检测,得到时空兴趣点集,根据获取的每一个时空兴趣点(x,y,t)确定其所在的帧以及在整段视频序列中的空间位置,其中x,y表示兴趣点在每一帧上的坐标位置,t...

【专利技术属性】
技术研发人员:宦若虹郭峰王楚
申请(专利权)人:浙江工业大学
类型:发明
国别省市:浙江;33

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1