The invention provides a method for identification of independent behavior based on the perspective of deep learning network, which comprises the following steps: inputting a video frame image from the perspective of the deep learning approach, low-level feature extraction and processing; modeling of the underlying characteristics of the model, obtained the cube in chronological order; the cube model transformation of all from the perspective of the column mapping invariant feature space a perspective, the input to the classifier for training, get the video behavior from the perspective of independent classifiers. Analysis of human behavior is adopted in the invention of deep learning from the perspective of network, improve the robustness of the classification model based on large data; especially suitable for training and learning, can better play its advantages.
【技术实现步骤摘要】
基于深度学习网络的视角无关性行为识别方法
本专利技术计算机视觉
,特别是指一种基于深度学习网络的视角无关性行为识别方法。
技术介绍
随着信息技术的飞速发展,计算机视觉伴随着VR、AR以及人工智能等概念的出现迎来了最好的发展时期,作为计算机视觉领域最重要的视频行为分析也越来越受到国内外学者的青睐。视频监控、人机交互、医疗看护、视频检索等一系列的领域中,视频行为分析占据了很大的比重。例如现在比较流行的无人驾驶汽车项目,视频行为分析非常具有挑战性。由于人体动作的复杂性和多样性的特点,再加上多个视角下人体自遮挡、多尺度以及视角旋转、平移等因素的影响,使得视频行为识别的难度非常大。如何能够精确地识别实际生活中多个角度下人体行为,并对人体行为进行分析,一直都是非常重要的研究课题,并且社会对行为分析的要求也越来越高。传统的研究方法包含以下几种:基于时空特征点:对提取到的视频帧图像提取其中的时空特征点,然后时空特征点建模、分析,最后进行分类。基于人体骨架:通过算法或者深度相机提取到人体骨架信息,然后通过对骨架信息进行描述、建模,继而对视频行为分类。基于时空特征点和骨架信息的 ...
【技术保护点】
一种基于深度学习网络的视角无关性行为识别方法,包括利用训练样本集获得分类器的训练过程及利用分类器识别测试样本的识别过程;其特征在于:所述训练过程包括以下步骤:S1)将某一视角下的视频帧图像Image 1到Image i按照时间顺序进行输入;S2)对步骤S1)输入的图像采用CNN进行底层特征提取并对其进行池化,将池化后的底层特征采用STN进行强化;S3)对步骤S2)强化后的特征图像进行池化并输入RNN进行时间建模,获得时序关联的立方体模型;S4)重复步骤S1)至S3)得到多个视角下同一个行为的空间立方体模型,将各视角的空间立方体模型转化为一个视角不变的柱体特征空间映射,并将其 ...
【技术特征摘要】
1.一种基于深度学习网络的视角无关性行为识别方法,包括利用训练样本集获得分类器的训练过程及利用分类器识别测试样本的识别过程;其特征在于:所述训练过程包括以下步骤:S1)将某一视角下的视频帧图像Image1到Imagei按照时间顺序进行输入;S2)对步骤S1)输入的图像采用CNN进行底层特征提取并对其进行池化,将池化后的底层特征采用STN进行强化;S3)对步骤S2)强化后的特征图像进行池化并输入RNN进行时间建模,获得时序关联的立方体模型;S4)重复步骤S1)至S3)得到多个视角下同一个行为的空间立方体模型,将各视角的空间立方体模型转化为一个视角不变的柱体特征空间映射,并将其作为该类行为的训练样本输入到分类器中进行训练;S5)重复以上各步骤,得到各种行为的视角无关性分类器;所述识别过程包括以下步骤:S6)录入某一视角下的视频帧图像,采用上述步骤S1)至S3)对其进行底层特征提取和建模,得到该视角下的空间立方体模型;S7)将步骤S6)得到的空间立方体模型转化为一个视角不变的柱体特...
【专利技术属性】
技术研发人员:王传旭,胡国锋,刘继超,杨建滨,孙海峰,崔雪红,李辉,刘云,
申请(专利权)人:青岛科技大学,
类型:发明
国别省市:山东,37
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。