当前位置: 首页 > 专利查询>之江实验室专利>正文

一种基于多特征融合的视频行为识别方法技术

技术编号:29940343 阅读:34 留言:0更新日期:2021-09-04 19:24
本发明专利技术属于图像识别技术领域,涉及一种基于多特征融合的视频行为识别方法,通过将采集的视频信息从多个视角进行处理,对视频信息进行图像帧采样,进行人物的骨骼点信息提取,获得视频中人物行为的关键点热度图信息,人物的前景语义分割信息,并与RGB信息进行融合,从而提高视频行为识别的准确率。本发明专利技术同端到端的处理RGB视频信息进行行为识别的方法比较,通过提取的骨骼点信息可以更多的关注人物的动作信息,通过语义分割网络,获取场景中的前景信息,屏蔽无关的背景干扰,通过这三者的融合进行特征的互补,提高行为识别的准确率。提高行为识别的准确率。提高行为识别的准确率。

【技术实现步骤摘要】
一种基于多特征融合的视频行为识别方法


[0001]本专利技术属于图像识别
,涉及一种基于多特征融合的视频行为识别方法。

技术介绍

[0002]行为识别是视频理解中的一个重要任务,在视频推荐系统,人机交互,游戏娱乐等领域有重要的应用。
[0003]为了更好的理解行为识别,需要从多个角度对视频中的信息进行分析。目前人们常采集RGB信息,通过端到端的方法对视频中的行为进行分类。
[0004]随着传感器和多种信息提取算法的出现,人们可以从多个视角来提取对特定人物有用的信息。目前多特征融合的行为识别方法,如通过提取光流信息和图像空间信息,对动作和外形信息进行融合,如slowfast,通过两个支路,提取空间和时间的信息进行融合。视频中的人体骨骼信息,常常作为简单行为识别的特征描述。语义分割信息,可以用以区分前景和背景信息,屏蔽无效的背景信息。
[0005]基于上述有效信息,本专利技术针对单一特征表达能力有限的问题,通过提取多个视角的特征,进行互补性的融合操作,对识别效果进行增强,视频中的行为,人物和场景信息对行为识别而言,都是本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种基于多特征融合的视频行为识别方法,其特征在于,包括如下步骤:步骤一,对视频序列进行图像帧采样,得到原始的RGB图像序列,后送入3DCNN网络进行特征提取,获取特征后通过全连接进行全连接维度变换生成;步骤二,对原始的RGB图像序列进行 skeleton提取,获取关键点热度图视频序列,后送入3DCNN网络中进行特征提取,获取特征后通过全连接进行全连接变换生成;步骤三,对原始的RGB图像序列进行语义分割,获取语义分割热度图序列,将语义分割热度图序列跟对应的原始的RGB图像序列进行与操作,生成前景分割图像序列,再将送入3DCNN网络中进行特征提取,获取特征后通过全连接进行全连接维度变换生成;步骤四,将、、通过全连接,进行全连接维度变换后融合,进行分类操作。2.如权利要求1所述的一种基于多特征融合的视频行为识别方法,其特征在于,所述3DCNN网络包括8个3*3*3卷积层,5个池化层,2个全连接层,和1个softmax分类层。3.如权利要求1所述的一种基于多特征融合的视频行为识别方法,其特征在于,所述原始的RGB图像序列的大小为T
×3×
H
×
W,其中T为视频采样的帧数,3为图像的通道数,H为图像高度,W为图像宽度;其中的,,是进行展平之后的一维特征向量。4.如权利要求1所述的一种基于多特征融合的视频行为识别方法,其特征在于,所述步骤二,具体包括:步骤201,将原始的RGB图像序列送入用于处理二维图像的人体关键点检测网络OpenPose网络中进行处理,输出骨骼点和骨骼点之间的关系生成骨骼图序列,即关键点热度图视频序列;步骤2...

【专利技术属性】
技术研发人员:李太豪马诗洁刘昱龙
申请(专利权)人:之江实验室
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1