一种实时智能体感同步的方法及系统技术方案

技术编号:19820315 阅读:26 留言:0更新日期:2018-12-19 14:10
本发明专利技术提供了一种实时智能体感同步的方法及系统,涉及局域网及虚拟现实领域,用以完善基于虚拟现实技术的实时智能体感同步技术。方法包括:获取操作者人物模型头部动作和手臂动作的实时位置数据;根据实时位置数据,测算当前操作者人物模型的全身位置数据。系统包括:头部动作数据获取单元,用于获取操作者人物模型头部动作的实时位置数据;手臂动作数据获取单元,用于获取操作者人物模型手臂动作的实时位置数据;全身位置数据测算单元,用于接收所述的操作者人物模型头部动作和手臂动作的实时位置数据,并测算当前操作者人物模型的全身位置数据。

【技术实现步骤摘要】
一种实时智能体感同步的方法及系统
本专利技术涉及局域网及虚拟现实领域,尤其是一种实时智能体感同步的方法及系统。
技术介绍
虚拟现实技术是仿真技术的一个重要方向,是仿真技术与计算机图形学、人机接口技术、多媒体技术、传感技术、网络技术、等多种技术的集合。是一门富有挑战性的交叉技术前沿学科和研究领域。虚拟现实技术(VR)主要包括模拟环境、感知、自然技能和传感设备等方面。模拟环境是由计算机生成的、实时动态的三维立体逼真图像。感知是指理想的VR应该具有一切人所具有的感知。除计算机图形技术所生成的视觉感知外,还有听觉、触觉、力觉、运动等感知,甚至还包括嗅觉和味觉等,也称为多感知。自然技能是指人的头部转动,眼睛、手势、或其他人体行为动作,由计算机来处理与参与者的动作相适应的数据,并对用户的输入作出实时响应,并分别反馈到用户的五官。传感设备是指三维交互设备。但是目前基于虚拟现实技术的实时智能体感同步方案还不完善。
技术实现思路
本专利技术提供了一种实时智能体感同步的方法及系统,用以完善基于虚拟现实技术的实时智能体感同步技术。本专利技术的一种实时智能体感同步的方法,包括下列步骤:S1、获取操作者人物模型头部动作和手臂动作的实时位置数据;S2、根据所述的实时位置数据,测算当前操作者人物模型的全身位置数据。其中,S2中还包括:对当前操作者人物模型的全身位置数据增加一个时间维度进行超前测算,得到超前操作者人物模型的全身位置数据。其中,还包括步骤:S3、根据所述的全身位置数据,对操作者人物模型进行实施的动画播放。其中,S1中所述的获取操作者人物模型头部动作的实时位置数据,具体包括:传感器捕捉到操作者头部的6自由度转动实时信息;根据所述的操作者头部的6自由度转动实时信息调整当前人物模型的头部摄像头位置,同时设置人物模型的头部位置,以得到操作者人物模型头部动作的实时位置数据,并将操作者与人物模型的头部动作同步。其中,S1中所述的获取操作者人物模型手臂动作的实时位置数据,具体包括:手柄传感器捕捉到操作者手掌的6自由度转动实时信息;根据所述的操作者手掌的6自由度转动实时信息设置当前人物模型的手掌位置;根据所述手掌位置的变化,自动牵拉调整人物模型的手臂姿势,并得到操作者人物模型手臂动作的实时位置数据。其中,S3中具体包括:根据所述的全身位置数据得到操作者人物模型位置变化量,据此设置动画播放参数,动画状态机完成动画融合并实现对操作者人物模型实施的动画播放。其中,S3中还包括:对操作者人物模型移动动画的优化,具体包括:获取手柄传感器模型射出的抛物线与场景产生的交点,所述抛物线由一系列线段连接而成,每条线段的终点是根据起点矢量在重力加速度的作用下计算出来的,公式为:Pos=Lastpos+Forward+Vector3.up*n*-Gravity*0.1f;其中,Pos表示终点,Lastpos表示起点,Forward表示正方向向量,Vector3.up表示世界的上方向,n表示当前点的编号,Gravity表示重力系数,f表示当前值是个float;所述交点的竖直投影点即为操作者人物模型的目的地;直接设置操作者人物模型位置实现移动至所述的目的地。其中,还包括步骤:S4、加载全景视频或全景图片,并渲染在虚拟现实场景中。本专利技术的一种实时智能体感同步的系统,包括:头部动作数据获取单元,用于获取操作者人物模型头部动作的实时位置数据;手臂动作数据获取单元,用于获取操作者人物模型手臂动作的实时位置数据;全身位置数据测算单元,用于接收所述的操作者人物模型头部动作和手臂动作的实时位置数据,并测算当前操作者人物模型的全身位置数据。其中,所述的全身位置数据测算单元还用于,对当前操作者人物模型的全身位置数据增加一个时间维度进行超前测算,得到超前操作者人物模型的全身位置数据。其中,动画播放单元,用于根据所述全身位置数据测算单元测算的全身位置数据,对操作者人物模型进行实施的动画播放。其中,所述的头部动作数据获取单元具体是捕捉到操作者头部的6自由度转动实时信息;根据所述的操作者头部的6自由度转动实时信息调整当前人物模型的头部摄像头位置,同时设置人物模型的头部位置,以得到操作者人物模型头部动作的实时位置数据,并将操作者与人物模型的头部动作同步。其中,所述的手臂动作数据获取单元具体是捕捉到操作者手掌的6自由度转动实时信息;根据所述的操作者手掌的6自由度转动实时信息设置当前人物模型的手掌位置;根据所述手掌位置的变化,自动牵拉调整人物模型的手臂姿势,并得到操作者人物模型手臂动作的实时位置数据。其中,所述的动画播放单元具体是根据所述全身位置数据测算单元测算的全身位置数据得到操作者人物模型位置变化量,据此设置动画播放参数,动画状态机完成动画融合并实现对操作者人物模型实施的动画播放。其中,所述的动画播放单元还用于对操作者人物模型移动动画的优化,具体是获取手掌模型射出的抛物线与场景产生的交点,所述抛物线由一系列线段连接而成,每条线段的终点是根据起点矢量在重力加速度的作用下计算出来的,公式为:Pos=Lastpos+Forward+Vector3.up*n*-Gravity*0.1f;其中,Pos表示终点,Lastpos表示起点,Forward表示正方向向量,Vector3.up表示世界的上方向,n表示当前点的编号,Gravity表示重力系数,f表示当前值是个float;所述交点的竖直投影点即为操作者人物模型的目的地;直接设置操作者人物模型位置实现移动至所述的目的地。其中,还包括:全景单元,用于加载全景视频或全景图片,并渲染在虚拟现实场景中。本专利技术的实时智能体感同步的方法及系统,完善基于虚拟现实技术的实时智能体感同步技术,可以用于实现虚拟现实课堂教学中的教学资源播放、师生互动、教学流程管理等功能,支持师生多人在同一虚拟空间中的协同互动,带来了更优的用户体验。【附图说明】图1是本专利技术框架性系统结构示意图;图2是本专利技术实施例1的方法步骤流程图;图3是本专利技术实施例1中的环境模型示意图;图4是本专利技术实施例2的方法步骤流程图;图5是本专利技术实施例2中的环境模型示意图;图6是本专利技术实施例3的系统结构示意图;图7是本专利技术实施例3中的环境模型示意图;图8本专利技术是实施例4的系统结构示意图;图9是本专利技术实施例4中的环境模型示意图。【具体实施方式】专利技术人经过研究提出了一种实时智能体感同步的方法及系统,在具体实现中整套系统是基于局域网的解决方案,该系统用于但不限于实现虚拟现实课堂教学中的教学资源播放、师生互动、教学流程管理等功能,支持师生多人在同一虚拟空间中的协同互动。具体采用基于Netty(Netty是由JBOSS提供的一个java开源框架)的C/S通信架构,客户端为PCClient和一体机FocusClient,在具体实现中FocusClient端可以采用Focus头盔,操作者戴上Focus头盔后,运行FocusClient程序进入VR场景,人物模型支持头部,手臂,转身活动等动作,所有这些动作都是和真实操作者保持同步的,人物模型可以采用FinalIK技术,模型包含了各种人体关节,支持编程转动,在模型头部处绑定一个U3D摄像头,以此来显示人物模型的视野。服务器为NettyServer。客户端主要采用Unit本文档来自技高网...

【技术保护点】
1.一种实时智能体感同步的方法,其特征在于,包括下列步骤:S1、获取操作者人物模型头部动作和手臂动作的实时位置数据;S2、根据所述的实时位置数据,测算当前操作者人物模型的全身位置数据。

【技术特征摘要】
1.一种实时智能体感同步的方法,其特征在于,包括下列步骤:S1、获取操作者人物模型头部动作和手臂动作的实时位置数据;S2、根据所述的实时位置数据,测算当前操作者人物模型的全身位置数据。2.如权利要求1所述的实时智能体感同步的方法,其特征在于,S2中还包括:对当前操作者人物模型的全身位置数据增加一个时间维度进行超前测算,得到超前操作者人物模型的全身位置数据。3.如权利要求1或2所述的实时智能体感同步的方法,其特征在于,还包括步骤:S3、根据所述的全身位置数据,对操作者人物模型进行实施的动画播放。4.如权利要求1所述的实时智能体感同步的方法,其特征在于,S1中所述的获取操作者人物模型头部动作的实时位置数据,具体包括:传感器捕捉到操作者头部的6自由度转动实时信息;根据所述的操作者头部的6自由度转动实时信息调整当前人物模型的头部摄像头位置,同时设置人物模型的头部位置,以得到操作者人物模型头部动作的实时位置数据,并将操作者与人物模型的头部动作同步。5.如权利要求1所述的实时智能体感同步的方法,其特征在于,S1中所述的获取操作者人物模型手臂动作的实时位置数据,具体包括:手柄传感器捕捉到操作者手掌的6自由度转动实时信息;根据所述的操作者手掌的6自由度转动实时信息设置当前人物模型的手掌位置;根据所述手掌位置的变化,自动牵拉调整人物模型的手臂姿势,并得到操作者人物模型手臂动作的实时位置数据。6.如权利要求3所述的实时智能体感同步的方法,其特征在于,S3中具体包括:根据所述的全身位置数据得到操作者人物模型位置变化量,据此设置动画播放参数,动画状态机完成动画融合并实现对操作者人物模型实施的动画播放。7.如权利要求3所述的实时智能体感同步的方法,其特征在于,S3中还包括:对操作者人物模型移动动画的优化,具体包括:获取手柄传感器模型射出的抛物线与场景产生的交点,所述抛物线由一系列线段连接而成,每条线段的终点是根据起点矢量在重力加速度的作用下计算出来的,公式为:Pos=Lastpos+Forward+Vector3.up*n*-Gravity*0.1f;其中,Pos表示终点,Lastpos表示起点,Forward表示正方向向量,Vector3.up表示世界的上方向,n表示当前点的编号,Gravity表示重力系数,f表示当前值是个float;所述交点的竖直投影点即为操作者人物模型的目的地;直接设置操作者人物模型位置实现移动至所述的目的地。8.如权利要求3所述的实时智能体感同步的方法,其特征在于,还包括步骤:S4、加载全景视频或全景图片,并渲染在虚拟现实场景中。9.一种实时智能体感同步的系统,其特征在于,包括:头部动作数据获取单元,用...

【专利技术属性】
技术研发人员:孙伟吕云
申请(专利权)人:贵州威爱教育科技有限公司
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1