【技术实现步骤摘要】
一种基于多特征线性时序编码的人体行为识别方法及系统
本专利技术属于自动视频分析
,涉及一种人体行为识别方法及系统,具体涉及一种基于多特征线性时序编码的人体行为识别方法及系统。
技术介绍
人体行为识别技术能满足智能视频监控分析、智能视频监护等应用领域的自动分析及智能化需求,在提升智慧城市建设水平、促进智慧医疗事业发展等方面具有十分重要的现实意义。目前,人体行为识别技术研究主要集中在基于深度学习的行为识别,包括两个方面的学习:行为卷积特征和行为时序特征。前者借助卷积神经网络从行为视频的RGB图像帧、光流等不同模态数据中学习人体行为局部深度特征;后者则在行为卷积特征基础上对行为发展的多个阶段进行时序特征学习。但现有技术方案忽视了运动边界图的行为表征能力,且未解决行为卷积特征和时序特征一体化学习问题。
技术实现思路
为了解决上述技术问题,本专利技术提供了一种基于多特征线性时序编码的人体行为识别方法及系统。本专利技术的方法所采用的技术方案是:一种基于多特征线性时序编码的人体行为识别方法,其特征在于,包括以下步骤:步骤1:将原始视频平均分为N个子段V1、V2…VN(N为经验值N=3),从每个子段Vi中随机采样一帧作为该子段的代表帧fi,然后从原始视频中取fi、fi的前l帧图像和fi的后l帧图像(l为经验值)构成连续帧集Si=[fi-l,…,fi,…,fi+l];所述原始视频为原始视频训练样本或待识别原始视频;步骤2:计算连续帧集Si中相邻帧间光流,构成光流图集oftx和oftx分别表示ft与ft+1间的水平方向和垂直方向的帧间光流,t=i-l,i-l+1,...,i ...
【技术保护点】
1.一种基于多特征线性时序编码的人体行为识别方法,其特征在于,包括以下步骤:步骤1:将原始视频平均分为N个子段V1、V2…VN,N为经验值,从每个子段Vi中随机采样一帧作为该子段的代表帧fi,然后从原始视频中取fi、fi的前l帧图像和fi的后l帧图像构成连续帧集Si=[fi‑l,…,fi,…,fi+l],l为经验值;所述原始视频为原始视频训练样本或待识别原始视频;步骤2:计算连续帧集Si中相邻帧间光流,构成光流图集
【技术特征摘要】
1.一种基于多特征线性时序编码的人体行为识别方法,其特征在于,包括以下步骤:步骤1:将原始视频平均分为N个子段V1、V2…VN,N为经验值,从每个子段Vi中随机采样一帧作为该子段的代表帧fi,然后从原始视频中取fi、fi的前l帧图像和fi的后l帧图像构成连续帧集Si=[fi-l,…,fi,…,fi+l],l为经验值;所述原始视频为原始视频训练样本或待识别原始视频;步骤2:计算连续帧集Si中相邻帧间光流,构成光流图集oftx和ofty分别表示ft与ft+1间的水平方向和垂直方向的帧间光流,t=i-l,i-l+1,...,i+l-1;步骤3:根据光流图集OF计算运动边界值得到运动边界图集Ptxx、Ptxy、Ptyx和Ptyy分别为oftx和ofty在图像水平和垂直方向上的运动边界值,t=i-l,i-l+1,...,i+l-1;Ptxx由元素Ptxx(u,v)构成,Ptxx(u,v)=[oftx(u+1,v)-oftx(u-1,v)],其中,(u,v)表示图像像素坐标,Ptxx(u,v)表示(u,v)处基于oftx的水平运动边界值;oftx(u+1,v)表示oftx中(u+1,v)处的运动光流值;oftx(u-1,v)表示oftx中(u-1,v)处的运动光流值;Ptxy由元素Ptxy(u,v)构成,Ptxy(u,v)=[oftx(u,v+1)-oftx(u,v-1)],其中,(u,v)表示图像像素坐标,Ptxy(u,v)表示(u,v)处基于oftx的垂直运动边界值;oftx(u,v+1)表示oftx中(u,v+1)处的运动光流值;oftx(u,v-1)表示oftx中(u,v-1)处的运动光流值;Ptyx由元素Ptyx(u,v)构成,Ptyx(u,v)=[ofty(u+1,v)-ofty(u-1,v)],其中,(u,v)表示图像像素坐标,Ptyx(u,v)表示(u,v)处基于ofty的水平运动边界值;ofty(u+1,v)表示ofty中(u+1,v)处的运动光流值;ofty(u-1,v)表示ofty中(u-1,v)处的运动光流值;Ptyy由元素Ptyy(u,v)构成,Ptyy(u,v)=[ofty(u,v+1)-ofty(u,v-1)],其中,(u,v)表示图像像素坐标,Ptyy(u,v)表示(u,v)处基于ofty的垂直运动边界值;ofty(u,v+1)表示ofty中(u,v+1)处的运动光流值;ofty(u,v-1)表示ofty中(u,v-1)处的运动光流值;步骤4:以各原始视频训练样本或待识别原始视频N个子段的代表帧fi、光流图集OF和运动边界图集MB作为输入,获取N个子段的代表帧CNN特征光流CNN特征和运动边界CNN特征步骤5:对代表帧CNN特征光流CNN特征和运动边界CNN特征分别进行乘法运算,完成线性时序编码,得到编码结果Crgb、Cof和Cmb,其中步骤6:基于线性时序编码特征Crgb、Cof和Cmb,分别进行行为识别,获得行为识别结果ARrgb、ARof和ARmb;步骤7:对行为识别结果ARrgb、ARof和ARmb进行加权融合,得到最终行为识别结果ARfinal,ARfinal=α*ARrgb+β*ARof+γ*ARmb,其中α、β和γ为经验值。2.一种基于多特征线性时序编码的人体行为识别系统,其特征在于:包括视频帧采样模块、光流图集计算模块、运动边界图集计算...
【专利技术属性】
技术研发人员:陈华锋,高正明,赵运红,贺体刚,胡秀,
申请(专利权)人:荆楚理工学院,
类型:发明
国别省市:湖北,42
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。