基于双摄像头的不同场景下实时人体转动角度识别方法技术

技术编号:26304832 阅读:38 留言:0更新日期:2020-11-10 20:01
本发明专利技术公开了一种基于双摄像头的不同场景下实时人体转动角度识别方法,其实现成本低,且易实现,不容易受环境影响。本发明专利技术设置两个参数相同的摄像头,并通过两个摄像头分别获取人体的实时图像,然后使用人体骨骼关键点识别技术获取图像中人体的骨骼关键点坐标,最后根据左右摄像头得到的人体骨骼关键点坐标的差异,来计算出此时人体的相对转动角度。本发明专利技术能够适用于不同的应用场景,并且准确实时地获取人体转动角度。

【技术实现步骤摘要】
基于双摄像头的不同场景下实时人体转动角度识别方法
本专利技术属于计算机视觉领域,具体涉及基于双摄像头的不同场景下实时人体转动角度识别方法。
技术介绍
目前的姿势识别研究主要从人体骨骼关键点检测出发,理论上只要获取了人体的骨骼关键点的三维坐标,便能够计算出关节或者整个人体的转动角度。当前二维的人体关键点识别技术已经趋于成熟,不管是单人还是多人场景下,识别准确率都非常准确。目前也有基于单张图片做三维人体骨骼关键点识别的,但是准确性很难得到保证。因此关键难点在于如何获取准确的深度信息。目前常用的深度图像获取方法主要有双目立体视觉、结构光以及激光雷达等方法。其中双目立体视觉虽然具有对相机硬件要求不高,成本低廉的优点,但是其对环境光照非常敏感、不适用于单调缺乏纹理的场景、计算复杂度高和相机基线限制了测量范围等缺点使得其适用的领域范围受到了很大限制。微软公司推出的Kinect设备,在结构光的基础上开发出光编码技术,Kinect低廉的价格与实时高分辨率的深度图像捕捉特性使得其在消费电子领域得到了迅猛发展,然而Kinect的有效测距范围仅为800毫米到4000毫米,对处在测距范围之外的物体,Kinect并不能保证准确深度值的获取。Kinect捕获的深度图像存在深度缺失的区域,其体现为深度值为零,该区域意味着Kinect无法获得该区域的深度值。而除此之外,其深度图像还存在着深度图像边缘与彩色图像边缘不对应、深度噪声等问题。激光雷达由于其测距范围广、测量精度高的特性被广泛地用于室外三维空间感知的人工智能系统中,然而,激光雷达所捕获的三维信息体现在彩色图像坐标系下是不均匀并且稀疏的。由于单位周期内,激光扫描的点数是有限的,当把激光雷达捕获的三维点投射到彩色图像坐标系下得到深度图像时,其深度图像的深度值以离散的点的形式呈现,深度图像中许多区域的深度值是未知的。这也就意味着彩色图像中的某些像素点并没有对应的深度信息。
技术实现思路
针对现有技术中的上述不足,本专利技术提供的基于双摄像头的不同场景下实时人体转动角度识别方法解决了现有技术中易受环境影响和计算复杂度高的问题。为了达到上述专利技术目的,本专利技术采用的技术方案为:基于双摄像头的不同场景下实时人体转动角度识别方法,包括以下步骤:S1、在一面墙壁上设置两个参数相同且连线水平的摄像头;S2、通过两个摄像头实时采集人体图像,并采用人体关键点识别算法获取人体骨骼关键点坐标,所述骨骼关键点坐标包括左肩关键点坐标和右肩关键点坐标;S3、根据第一摄像头所采集的人体骨骼关键点坐标获取第一转向识别参数K1,根据第二摄像头所采集的人体骨骼关键点坐标第二转向识别参数K2;S4、判断第一摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S5,否则进入步骤S6;S5、判断第二摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S7,否则进入步骤S8;S6、判断第二摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S10,否则进入步骤S9;S7、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则判定为第一左转过程,并计算转动角度,得到人体转动角度识别结果,否则判定为第一右转过程,并计算转动角度,得到人体转动角度识别结果;S8、判定当前人体转向过程为第二左转过程,并计算转动角度,得到人体转动角度识别结果;S9、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则判定为第三右转过程,并计算转动角度,得到人体转动角度识别结果,否则判定为第三左转过程,并计算转动角度,得到人体转动角度识别结果;S10、判定当前人体转向过程为第二右转过程,并计算转动角度,得到人体转动角度识别结果。进一步地,所述步骤S1中两个摄像头的镜头轴线与墙壁的夹角均为90-α度,所述两个摄像头的镜头轴线相交且平行于水平面,所述两个摄像头的镜头之间的距离为d米,α表示常数,α∈(0,45)。进一步地,所述步骤S2中两个摄像头包括第一摄像头和第二摄像头,所述第一摄像头采集的人体骨骼关键点坐标包括左肩关键点坐标(xlj1,ylj1)、右肩关键点坐标(xrj1,yrj1)、左髋关键点坐标(xlk1,ylk1)和右髋关键点坐标(xrk1,yrk1),所述第二摄像头采集的人体骨骼关键点坐标包括左肩关键点坐标(xlj2,ylj2)、右肩关键点坐标(xrj2,yrj2)、左髋关键点坐标(xlk2,ylk2)和右髋关键点坐标(xrk2,yrk2)。进一步地,所述步骤S3中根据第一摄像头所采集的人体骨骼关键点坐标获取第一转向识别参数K1为:其中,D1表示第一摄像头采集的左肩关键点与右肩关键点坐标在墙壁上的投影点之间的横坐标差,D2表示第一摄像头采集的左髋关键点与左肩关键点在墙壁上的投影点之间的纵坐标差,xlj1表示第一摄像头采集的左肩关键点lj的横坐标,xrj1表示第一摄像头采集的右肩关键点rj的横坐标,ylk1表示第一摄像头采集的左髋关键点lk的纵坐标,ylj1表示第一摄像头采集的左肩关键点lj的纵坐标;所述步骤S3中根据第二摄像头所采集的人体骨骼关键点坐标第二转向识别参数K2为:其中,D3表示第二摄像头采集的左肩关键点与右肩关键点坐标在墙壁上的投影点之间的横坐标差,D4表示第二摄像头采集的左髋关键点与左肩关键点在墙壁上的投影点之间的纵坐标差,xlj2表示第二摄像头采集的左肩关键点lj的横坐标,xrj2表示第二摄像头采集的右肩关键点rj的横坐标,ylk2表示第二摄像头采集的左髋关键点lk的纵坐标,ylj2表示第二摄像头采集的左肩关键点lj的纵坐标。进一步地,所述步骤S7中第一左转过程具体为:人体正对墙壁时,向左转动角度为(0,90-α)度的过程;所述第一右转过程为:人体正对墙壁时,向右转动角度为(0,90-α)度的过程;所述步骤S7包括以下分步骤:S71、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则进入步骤S72,否则进入步骤S73;S72、判定此时转向过程为第一左转过程,计算转动角度angle为:angle=arccos(K2/Kmax)/PI*180-αS73、判定此时转向过程为第一右转过程,计算转动角度angle为:angle=arccos(K1/Kmax)/PI*180-α其中,Kmax表示左右肩关键点之间的最大距离;PI表示圆周率。进一步地,所述步骤S8中第二左转过程具体为:以人体正对墙壁为参考,在人体左侧(90-α,90+α)度范围内向左转的过程;所述步骤S8中计算转动角度angle为:angle=arccos(K1/Kmax)/PI*180+α。进一步地,所述步骤S9中第三左转过程具体为:以人体正对墙壁为参考,在人体左侧(90+α,180)度范围内向左转的过程;所述第三右转过程具体为:以人体正对墙壁为参考,在人体右侧(9本文档来自技高网
...

【技术保护点】
1.一种基于双摄像头的不同场景下实时人体转动角度识别方法,其特征在于,包括以下步骤:/nS1、在一面墙壁上设置两个参数相同且连线水平的摄像头;/nS2、通过两个摄像头实时采集人体图像,并采用人体关键点识别算法获取人体骨骼关键点坐标,所述骨骼关键点坐标包括左肩关键点坐标和右肩关键点坐标;/nS3、根据第一摄像头所采集的人体骨骼关键点坐标获取第一转向识别参数K

【技术特征摘要】
1.一种基于双摄像头的不同场景下实时人体转动角度识别方法,其特征在于,包括以下步骤:
S1、在一面墙壁上设置两个参数相同且连线水平的摄像头;
S2、通过两个摄像头实时采集人体图像,并采用人体关键点识别算法获取人体骨骼关键点坐标,所述骨骼关键点坐标包括左肩关键点坐标和右肩关键点坐标;
S3、根据第一摄像头所采集的人体骨骼关键点坐标获取第一转向识别参数K1,根据第二摄像头所采集的人体骨骼关键点坐标第二转向识别参数K2;
S4、判断第一摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S5,否则进入步骤S6;
S5、判断第二摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S7,否则进入步骤S8;
S6、判断第二摄像头采集的左肩关键点横坐标是否大于其采集的右肩关键点横坐标,若是,则进入步骤S10,否则进入步骤S9;
S7、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则判定为第一左转过程,并计算转动角度,得到人体转动角度识别结果,否则判定为第一右转过程,并计算转动角度,得到人体转动角度识别结果;
S8、判定当前人体转向过程为第二左转过程,并计算转动角度,得到人体转动角度识别结果;
S9、判断第一转向识别参数K1是否大于第二转向识别参数K2,若是,则判定为第三右转过程,并计算转动角度,得到人体转动角度识别结果,否则判定为第三左转过程,并计算转动角度,得到人体转动角度识别结果;
S10、判定当前人体转向过程为第二右转过程,并计算转动角度,得到人体转动角度识别结果。


2.根据权利要求1所述的基于双摄像头的不同场景下实时人体转动角度识别方法,其特征在于,所述步骤S1中两个摄像头的镜头轴线与墙壁的夹角均为90-α度,所述两个摄像头的镜头轴线相交且平行于水平面,所述两个摄像头的镜头之间的距离为d米,α表示常数,α∈(0,45)。


3.根据权利要求2所述的基于双摄像头的不同场景下实时人体转动角度识别方法,其特征在于,所述步骤S2中两个摄像头包括第一摄像头和第二摄像头,所述第一摄像头采集的人体骨骼关键点坐标包括左肩关键点坐标(xlj1,ylj1)、右肩关键点坐标(xrj1,yrj1)、左髋关键点坐标(xlk1,ylk1)和右髋关键点坐标(xrk1,yrk1),所述第二摄像头采集的人体骨骼关键点坐标包括左肩关键点坐标(xlj2,ylj2)、右肩关键点坐标(xrj2,yrj2)、左髋关键点坐标(xlk2,ylk2)和右髋关键点坐标(xrk2,yrk2)。


4.根据权利要求2所述的基于双摄像头的不同场景下实时人体转动角度识别方法,其特征在于,所述步骤S3中根据第一摄像头所采集的人体骨骼关键点坐标获取第一转向识别参数K1为:



其中,D1表示第一摄像头采集的左肩关键点与右肩关键点坐标在墙壁上的投影点之间的横坐标差,D2表示第一摄像头采集的左髋关键点与左肩关键点在墙壁上的投影点之间的纵坐标差,xlj1表示第一摄像头采集的左肩关键点lj的横坐标,xrj1表示第一摄像头采集的右肩关键点rj的横坐标,ylk1表示第一摄像头采集的左髋关键点lk的纵坐标,ylj1表示第一摄像头采集的左肩关键点lj的纵坐标;
所述步骤S3中根据第二摄像头所采集的人体骨骼关键点坐标第二转向识别参数K2为:



其中,D3表示第二摄像头采集的...

【专利技术属性】
技术研发人员:陈安成李若铖陈林张康王权泳吴哲
申请(专利权)人:电子科技大学
类型:发明
国别省市:四川;51

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1