一种非接触式物展交互系统技术方案

技术编号:8359880 阅读:166 留言:0更新日期:2013-02-22 07:33
本实用新型专利技术公开了一种非接触式物展交互系统,由图像采集装置、显示装置、数据处理系统、及数据转化元件构成,数据转化元件具有三个端口,一个端口连接电源,一个端口连接数据处理系统,一个端口连接数据采集装置。本实用新型专利技术提供的物展交互系统,能解决物品方便展示,节约能耗的作用。(*该技术在2022年保护过期,可自由使用*)

【技术实现步骤摘要】

本技术涉及一种物展交互系统,特别是一种非接触式物展交互系统
技术介绍
在平常的展会上,很多参展商将展物放到展台供参观者参观。这种方式已经延续了不知多少年。这种方式不能说不好,但过于传统,没有足够的创新和吸引力。随后出现了“触屏展示系统”,其可以让参观者用触摸屏幕的方式取代传统的鼠标和键盘等遥控器的控制,从而和屏幕上的展物进行互动。从实现原理角度来看,参观者用手指或其他物体触摸显示器前段的触摸屏。触摸屏由触摸检测部件和触摸屏控制器组成。触 摸检测部件在显示器前段,用于检测用户的触摸位置。触摸屏控制器的主要作用是从触摸点检测装置上接收触摸信息,将其转换成具体坐标,送给计算机进行分析处理并形成反馈信息显示在屏幕上。“触屏展示系统”的出现将传统的展示方式带入一个新纪元,能够让参观者非常精确的和屏幕上的展物进行互动,并且能够在操作过程中查看展物的详细信息,有着好的用户体验。但是“触屏展示系统”需要依靠特定的触摸屏来进行操作。触摸屏的费用一般不低,贵的要几千元甚至上万一套,整个触摸屏软硬件系统尺寸上也比较大,在运输上给参展商造成不便。如何突破这些限制实现展品高效的展示是个问题。
技术实现思路
本技术要解决的技术问题是提供一种非接触式物展交互系统,其通过软硬件的结合实现非接触式物展示,能很好的解决节能降耗问题,且实现展品的动态展示。本非接触式物展交互系统,由图像采集装置、显示装置、数据处理系统、及数据转化元件构成,所述数据转化元件具有三个端口,一个端口连接电源,一个端口连接数据处理系统,一个端口连接数据采集装置。所述图像采集装置为三维图像采集装置,优选体感摄像头。所述显示装置为电脑显示器、投影仪或者大屏幕电视等显示设备。使用被系统可方便的解决展品便携作用,节能降耗,方便展品的动态展示。该系统可以让参观者在不使用任何遥控器(鼠标、键盘、操作手柄等)仅仅在摄像头前通过肢体动作身临其境地操作屏幕上的三维仿真展物,从而提高参观者和展物的互动性。由于屏幕上的展物是三维建模而成,所以不存在展物被损坏的可能。即使参观者众多,只需要多放几台设备即可。在参观者和展物互动过程中,通过软件可以被很容易地从各个角度观看展物,也可以进行互动和必要的解释。以下结合附图和具体实施方式对本技术作进一步详细的说明。图I为本技术的系统结构图图2为本技术的工作流程图图3本技术的采集装置工作图图4本技术的使用流程图图5本技术的数据采集方法具体实施方式图I为“非接触式物展交互系统”的系统结构图。包括图像采集装置、显示装置、数据处理系统、及数据转化元件构成,所述数据转化元件具有三个端口,一个端口连接电源,一个端口连接数据处理系统,一个端口连接数据采集装置。“非接触式物展交互系统”是基于体感摄像头的手势识别人机交互系统。该系统涉及到的硬件包括四部分图像采集装置、显示装置、数据处理系统、及数据转化元件构成。数据采集装置可为体感摄像头,如微软的KINECT体感摄像头。体感摄像头可以采集三维空间数据,并且可以识别摄像头前方的人以及人体骨架。KINECT侦测的最佳距离为I. 2米到3. 5米之间,水平视野为57度,垂直视野为43度。KINECT还附带有马达功能,能够在必要时候左右旋转27度来追踪物体扩展测量空间。KINECT以30赫兹的频率获取320*240点阵的分辨率数据,得到的是VGA画质。它可以判断的物体精准度为4mm。人体识别事务的反应速度高于100ms,而KINECT的识别速度大约为33ms,两者相比之后,可以不用担心KINECT扫瞄速度不够。取得的数据流为三维点阵数据流,具体的人体手势识别交由计算机程序进行处理。该系统所用的数据处理系统为普通计算机即可。该系统是在Microsoft windows7操作系统环境下集成开发。Kinect使用了类似于USB的接头。Kinect的功率为12瓦,远高于标准USB接口 2. 5瓦的功率。体感摄像头输入参数为100V-240V 50/60HZ ;输出参数为DC 12V1. 08A。显示装置是这套系统比较灵活的部分。显示屏可以用笔记本电脑的显示屏,小巧便捷;也可以用投影仪或者大屏幕电视来显示。该系统软件架构主要分为四模块,由采集,识别,处理,应用四个模块构成;其中,采集,识别,处理使用OpenNI框架技术实现,应用模块使用UNITY 3D技术实现画面的显/Jn οOpenNI在整个系统扮演了传递从体感摄像头到上层程序数据的角色,这部分设计构建了整个应用程序。在OpenNI内部,有一些中间件。中间件涵盖了整个交互的核心技术,作用就是采集原始三维数据,利用这套系统的算法对其精确分析和计算,并生成能够反映真实世界人物的空间位置和动作,再通过分类算法进行有效识别和归纳,最后返回有意义的数据。有意义的数据指能够被领会、理解或翻译的数据表示。OpenNI使用工作节点来描述自己的工作流。所谓工作节点就是能够接收并产生数据的组件。每个工作节点的作用就是采集低一层级的数据,分析处理后传递给高层级使用。若干个工作节点的有效连接就构成了一个工作链。工作链描述了这个OpenNI框架中各个节点的拓扑关系。整个工作流程如图2所示人站在体感摄像头前,挥舞手掌让摄像头能够识别人体。如果识别不出人体来,则继续处于待识别状态,如果识别出来,进入下一阶段,对当前操作人的动作识别。如果操作人做出符合程序预定义的一些动作,则被判定为有效动作,进入分析处理阶段,用此动作和展物互动。采集该系统使用OpenNI的传感器节点进行采集。所谓传感器节点是OpenNI获取传感器数据的节点。本系统获取到的节点数据包括深度数据、彩色图数据、红外数据。彩色图数据和红外数据作为程序显示场景用。深度数据为采集模块的最主要数据。采集模块获取到的数据为三维数据,即前文所说的,240*320个点阵的三维数据。该系统的采集部分采用“帧同步”概念,如图3所示体感摄像头采集到的三种数据(深度数据、彩色图数据、红外数据)以每秒30帧的频率被采集到程序节点上。程序会不断的循环判定所有的节点是否都有数据,如果并不是所有数据都齐全,那么这些不完全的节点数据组合而成的图像信息就是不完整的,显示出来则会存在误差。为了确保所有数据都是实时并且完整的,程序会在所有节点都有新数据的时候才取获取数据。获取数据后将输出数据进行处理,并将节点数据清空以及等待下一批数据到来。 识别该系统使用OpenNI的中间件节点进行识别。本系统涉及到的中间件节点包括姿势通知生成器节点、场景分析器节点、手心生成器节点、用户生成器节点四个。这些生成器节点就是将采集模块获得到的数据进行分析处理,然后识别出不同的对象和动作。姿势通知生成器当指定的姿势被标识,就可以触发某程序。场景分析器分析一个场景后,分离前景、背景、地板等。其主要输出是带标签的深度图,其中每个像素带一个标识,标明它是否是一个前景或者背景。手心生成器能够在用户挥舞手掌的时候,跟踪手心位置,且在手心位置发生改变的时候发出通知。用户生成器产生一个在3D场景的身体表不。该系统通过调用这些生成器,可以剥离出摄像头前面的操作人,然后解析其手势动作。如果该人的动作和预先定义的动作相匹配,则识别并确定该动作,将该人做出的动作标记成某种讯号。如果本文档来自技高网...

【技术保护点】
一种非接触式物展交互系统,其特征在于由图像采集装置、显示装置、数据处理系统、及数据转化元件构成,所述数据转化元件具有三个端口,一个端口连接电源,一个端口连接数据处理系统,一个端口连接数据采集装置。

【技术特征摘要】

【专利技术属性】
技术研发人员:刘聪杰徐路明
申请(专利权)人:无锡华轩信息科技有限公司
类型:实用新型
国别省市:

相关技术
    暂无相关专利
网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1