当前位置: 首页 > 专利查询>南京大学专利>正文

一种可用于虚拟现实输入的肢体动作识别装置制造方法及图纸

技术编号:6864157 阅读:446 留言:0更新日期:2012-04-11 18:40
本发明专利技术是一种可用于虚拟现实中的肢体动作识别装置。所属的技术领域为虚拟现实技术中的人机交互技术。本发明专利技术解决的技术问题是:提供一种相比于传统人机交互中基于鼠标和键盘的输入技术更人性化、更简单的输入装置,以实现虚拟世界和现实世界的无缝连接。解决该问题的技术方案的要点是:通过手持特殊设备将对肢体动作的识别转换成对特殊设备轨迹的识别,采用精度达毫米级、且满足实时要求的3D定位系统将肢体动作录制成3D定位数据流,并从中截取包含肢体动作信息的3D定位数据序列以识别相应的肢体动作,进而发出与具体的应用场景相应的控制命令,从而实现控制虚拟世界的目的。本发明专利技术的主要用途是在某些虚拟现实技术应用场景中取代鼠标和键盘,从而给用户提供一种更人性化、更简单的控制方式。

【技术实现步骤摘要】

本专利技术涉及一种通过手持特殊设备实现对肢体动作进行识别的技术,特别涉及一种定位精度可达毫米级、且满足实时要求的肢体动作录制系统以及一种肢体动作解释中间件。
技术介绍
虚拟现实技术被广泛运用于娱乐、科研、教育、军事、航天等众多领域,主要涉及计算机图形学、人工智能、传感器技术、人机交互技术等
其中的人机交互技术则是沟通虚拟世界和现实世界的桥梁,如何实现两者之间的无缝连接至关重要。传统的人机交互中输入主要依赖于鼠标和键盘,输出则主要依赖于显示器和音频。鼠标和键盘提供的输入方式需要掌握鼠标和键盘输入操作,一方面,对很多人而言,是一种学习上的门槛,另一方面,也不够人性化。由此可见,传统人机交互中的输入技术有待改进,而这也是虚拟现实技术中研究白勺^^ ; ^^ ο
技术实现思路
本专利技术的目的在于提供一种更简单、更人性化的输入装置,以逐步改进传统输入技术中的不足,进而逐步实现现实世界和虚拟世界之间的无缝输入。为达到上述目的,本专利技术提供一种直接将人的各种肢体动作作为计算机的输入,进而与虚拟世界进行交互的系统。比如在某个游戏中,可以通过手的前后左右移动控制游戏中人物的前后左右行走方向。附图说明图1是本专利技术的系统框图。肢体动作录制系统10包括手持发射设备100和接收设备101,负责将输入的肢体动作转换成3D定位数据流,并将数据流发送给计算机11。图2 为运行于计算机上的软件模块图,包括肢体动作解释中间件110以及特定的应用软件111。 肢体动作解释中间件110负责从3D定位数据流中截取与不同的肢体动作所对应的3D定位数据序列,进而识别相应的肢体动作,并将其转换成特定的应用软件111所需的控制命令, 进而控制虚拟世界。图3是肢体动作录制系统的硬件设备原理图。手持发射设备100为一确定尺寸的圆柱体,高H,直径D,沿其顶面圆周1000等间距安装六个超声波发射器,10000U000U 10002、10003、10004和10005 ;接收设备101由三个超声波接收器组成,1010、1011和1012。 每一个超声波发射器都以固定的时间间隔不断地发射窄脉冲,每一个接收器则负责不断地接收。以发射器10000为例,每发射一个窄脉冲,三个接收器都将会接收到该窄脉冲。利用各个接收器接收到该窄脉冲的延时时间,可以计算出发射器10000当前位置到三个接收器的距离,进而计算出发射器10000在三个接收器所建立的坐标系中的当前3D位置。考虑到超声波发射器的发射覆盖角度有限,所以采用六个发射器,并将其均勻安置在圆柱体上,以保证圆柱体处于空间中任何位置和任何角度,至少有三个发射器发射的窄脉冲可以被所有的接收器收到。于是,圆柱体处于空间中任何状态,至少可以得知其上三个发射器的当前3D位置。比如,已知发射器10000、10001、10002三个发射器的当前3D位置,再利用圆柱体的确定尺寸,很容易推知当前圆柱体的空间位置和空间角度。于是,当手握该圆柱体下端并移动时,手臂在空间中的运动轨迹也就被该系统以连续的3D定位数据流录制了下来。图4为肢体动作解释中间件110的软件架构框图。肢体动作解释中间件110为运行于计算机11上的软件模块,包括解释引擎1100、肢体动作3D定位数据序列库1101和控制命令生成器1102三部分。肢体动作3D定位数据序列库1101包含了各种肢体动作与3D 定位数据序列之间的映射关系。每个肢体动作对应于一个3D定位数据序列,不同的肢体动作对应于具有不同特征的3D定位数据序列。比如手臂的水平向右移动对应的3D定位数据序列,具有X不断增加,而Y和Z基本维持不变的特征。解释引擎1100则负责从肢体动作录制系统10中接收3D定位数据流,并从中截取合适的3D定位数据序列以作为某个肢体动作的信息数据,进一步查询匹配肢体动作3D定位数据序列库1101,从而识别该肢体动作。 至于已识别的肢体动作到控制命令的转换,控制命令生成器1102则需要依赖于特定的应用软件111。比如,针对不同的游戏,同样的手臂向右平移可能会对应于不同的游戏控制命令。图5是整个系统的数据流12。流程121将肢体动作编码成连续的3D定位数据流; 流程122从上述3D定位数据流中截取肢体动作对应的3D定位数据序列;流程123从3D定位数据序列库中查询匹配,确定该肢体动作;流程1 则根据特定的应用软件111将肢体动作转化成最终的控制命令。具体实施例方式下面说明本专利技术的一个具体实施过程,以经典游戏俄罗斯方块为例说明。俄罗斯方块的控制主要包括控制坠落方块的左移、右移、快速下移和变形四种操作。传统的玩法是通过按游戏手柄上的方向键和另外一个功能键实现。利用本专利技术,手握该圆柱体,向右平移则控制坠落方块的右移,向左平移则控制左移,向下移动则对应于快速下移,向上移动则对应于变形。权利要求1.一种可用于虚拟现实输入的肢体动作识别装置,其特征在于由肢体动作录制系统 10和肢体动作解释中间件110两部分组成。其中,肢体动作录制系统10包括手持发射设备100和接收设备101,负责将肢体动作轨迹转换成3D定位数据流。肢体动作解释中间件 110包括解释引擎1100、肢体动作3D定位数据库1101和控制命令生成器1102,负责从3D 定位数据流中截取不同肢体动作所对应的3D定位数据序列,并将其转换成特定的软件111 所需的控制命令,进而控制虚拟世界。2.根据权利要求1所述的一种可用于虚拟现实输入的肢体动作识别装置,其特征在于其中肢体动作录制系统10,通过手持发射设备100,将对肢体动作轨迹的录制转化为对手持发射设备100运行轨迹的录制。3.根据权利要求1所述的一种可用于虚拟现实输入的肢体动作识别装置,其特征在于其中肢体动作录制系统10,通过3D定位数据流对肢体动作轨迹进行录制。4.根据权利要求1所述的一种可用于虚拟现实输入的肢体动作识别装置,其特征在于其中手持发射设备100,是一个确定尺寸的圆柱体,在其顶面圆周1000等间距安装六个超声波发射器,10000 10005。5.根据权利要求1所述的一种可用于虚拟现实输入的肢体动作识别装置,其特征在于其中肢体动作解释中间件110,通过对3D定位数据流的截取,获得与不同肢体动作相对应的3D定位数据序列。6.根据权利要求1所述的一种可用于虚拟现实输入的肢体动作识别装置,其特征在于其中肢体动作解释中间件110,通过查询肢体动作3D定位数据序列库123从而识别不同的肢体动作。7.根据权利要求1所述的一种可用于虚拟现实输入的肢体动作识别装置,其特征在于其中肢体动作解释中间件110,根据不同的虚拟现实应用场景,即特定的应用软件111, 将已识别的肢体动作转换成具体的控制命令。全文摘要本专利技术是一种可用于虚拟现实中的肢体动作识别装置。所属的
为虚拟现实技术中的人机交互技术。本专利技术解决的技术问题是提供一种相比于传统人机交互中基于鼠标和键盘的输入技术更人性化、更简单的输入装置,以实现虚拟世界和现实世界的无缝连接。解决该问题的技术方案的要点是通过手持特殊设备将对肢体动作的识别转换成对特殊设备轨迹的识别,采用精度达毫米级、且满足实时要求的3D定位系统将肢体动作录制成3D定位数据流,并从中截取包含肢体动作信息的3D定位数据序列以识别相应的肢体动作,进而发出与具体的应用场景相本文档来自技高网
...

【技术保护点】
1.一种可用于虚拟现实输入的肢体动作识别装置,其特征在于:由肢体动作录制系统10和肢体动作解释中间件110两部分组成。其中,肢体动作录制系统10包括手持发射设备100和接收设备101,负责将肢体动作轨迹转换成3D定位数据流。肢体动作解释中间件110包括解释引擎1100、肢体动作3D定位数据库1101和控制命令生成器1102,负责从3D定位数据流中截取不同肢体动作所对应的3D定位数据序列,并将其转换成特定的软件111所需的控制命令,进而控制虚拟世界。

【技术特征摘要】

【专利技术属性】
技术研发人员:都思丹于耀王伟丁勇周余张颀叶志华狄海进王明袁杰沈庆宏李杨彭成磊赵康僆孔令红王大千赵经纬王彤晖谢靖常夏勤
申请(专利权)人:南京大学
类型:发明
国别省市:84

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1