The invention discloses a body sense mutual conversion method and device based on a deep camera Kinect, which can realize the somatosensory operation of non somatosensory applications. The method includes: S1, spatial information through Kinect to obtain the depth camera human bones and joints; S2, creating a user space coordinate system, the spatial information into the user space coordinate system; S3, three-dimensional model of human skeleton building spatial information conversion based on S4; and through according to the human skeleton the 3D model of the definition of attitude, attitude to establish template library, among them, the attitude of the template library includes at least one gesture definition description and the attitude the attitude type; S5, for the user to make a gesture analysis, the analytical results of the attitude and the attitude of template matching, recognition a type of attitude the user to make a gesture which, according to the attitude type keyboard response message corresponding mechanism to stimulate the attitude through the message type.
【技术实现步骤摘要】
基于深度相机Kinect的体感交互转换方法及装置
本专利技术涉及人机交互
,具体涉及一种基于深度相机Kinect的体感交互转换方法及装置。
技术介绍
体感交互的出现是人与机器对话方式回归自然的重要转折,体现了人们对“以人为中心”设计理念的不懈追求。体感游戏是体感交互的一个重要的应用领域,突破了以往单纯以手柄按键输入的操作方式,使人们可以通过肢体动作控制计算机。作为一种新兴的游戏体验模式,体感游戏将用户从控制设备中解放出来,从人机交互角度上来说,可以使玩家自然直观的沉浸在游戏中,带动全身同时运动,让玩家在游戏中得到锻炼,同时也给玩家带来更高的游戏乐趣。Kinect作为新一代的新型人机交互设备,可以实现将实时捕捉到的人的动作、面部表情以及语音作为机器输入指令,这一强大的特性也使得Kinect成为人机交互领域的一个热点。但目前开发团队开发出优秀的基于Kinect体感游戏存在一定的困难,如游戏开发成本高,设计水平及质量参差不齐,制作周期长,开发效率低等,而制作精良的非体感交互的游戏,游戏数量庞大,资源较为丰富,却不能支持体感化操作。
技术实现思路
有鉴于此,本专利技术要解决的问题:提出一种有效的体感交互转换工具,实现非体感应用的体感化操作。一方面,本专利技术实施例提出一种基于深度相机Kinect的体感交互转换方法,包括:S1、通过深度相机Kinect获取人体骨骼及关节点的空间信息;S2、建立用户空间坐标系,将所述空间信息转换到所述用户空间坐标系;S3、基于转换后的空间信息构建人体骨架三维模型;S4、通过依据所述人体骨架三维模型对姿态进行定义,建立姿态模板库,其中 ...
【技术保护点】
一种基于深度相机Kinect的体感交互转换方法,其特征在于,包括:S1、通过深度相机Kinect获取人体骨骼及关节点的空间信息;S2、建立用户空间坐标系,将所述空间信息转换到所述用户空间坐标系;S3、基于转换后的空间信息构建人体骨架三维模型;S4、通过依据所述人体骨架三维模型对姿态进行定义,建立姿态模板库,其中,所述姿态模板库包括至少一个姿态的定义描述以及该姿态所属的姿态类型;S5、对用户做出的动作姿态进行解析,通过将解析结果与所述姿态模板库中的姿态进行匹配,识别出用户做出的动作姿态所属的姿态类型,根据所述姿态类型通过消息响应机制激发所述姿态类型对应的键盘消息。
【技术特征摘要】
1.一种基于深度相机Kinect的体感交互转换方法,其特征在于,包括:S1、通过深度相机Kinect获取人体骨骼及关节点的空间信息;S2、建立用户空间坐标系,将所述空间信息转换到所述用户空间坐标系;S3、基于转换后的空间信息构建人体骨架三维模型;S4、通过依据所述人体骨架三维模型对姿态进行定义,建立姿态模板库,其中,所述姿态模板库包括至少一个姿态的定义描述以及该姿态所属的姿态类型;S5、对用户做出的动作姿态进行解析,通过将解析结果与所述姿态模板库中的姿态进行匹配,识别出用户做出的动作姿态所属的姿态类型,根据所述姿态类型通过消息响应机制激发所述姿态类型对应的键盘消息。2.根据权利要求1所述的方法,其特征在于,所述S1中获取到的空间信息基于Kinect设备空间坐标系,包括基于Kinect的人体关节点的坐标、速度信息以及由关节点所确定的骨骼的旋转信息。3.根据权利要求2所述的方法,其特征在于,所述S2,包括:S21、以用户右手方向为x轴正方向,头部向上为y轴正方向,面向深度相机Kinect正前方为z轴正方向,臀部为坐标原点构建用户空间坐标系;S22、将所述人体关节点的坐标转换到所述用户空间坐标系,转换关系为:式中,(x,y,z)为Kinect设备空间坐标系下的坐标点,(x′,y′,z′)为用户空间坐标系下对应的坐标点,(x0,y0,z0)为用户空间坐标系的坐标原点。4.根据权利要求3所述的方法,其特征在于,所述人体骨架三维模型的构成特征包括关节点三维坐标、关节点之间的欧氏距离、关节点之间的方向向量、关节点与骨骼段之间的距离、骨骼段之间的夹角,以及关节点在时间域上的速度。5.根据权利要求4所述的方法,其特征在于,所述S4,包括:根据所述人体骨架三维模型,基于关节点的位置关系、骨骼段之间的角度和关节点的速度这三种元素对姿态进行描述性定义。6.一种基于深度相机K...
【专利技术属性】
技术研发人员:王庆,许常蕾,陈洪,梅树立,朱德海,
申请(专利权)人:中国农业大学,
类型:发明
国别省市:北京,11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。