基于大范围空间精准定位实现混合现实的方法技术

技术编号:27514356 阅读:19 留言:0更新日期:2021-03-02 18:46
本发明专利技术公开了一种基于大范围空间精准定位实现混合现实的方法,包括:建立混合现实中出现物品对应的多媒体注释;通过unity 3D引擎或Ureal 3D引擎建立虚拟空间以模拟现实空间用于处理遮挡关系;使用大范围空间精准定位方式以及智能移动终端的陀螺仪夹角数据保证现实摄像机与虚拟摄像机参数一致,实现画面的校准和多媒体注释的渲染与呈现。该方法能在符合透视原理、遵循现实物理世界遮挡关系的前提下实现混合现实的显示,能让用户在大范围空间环境中,通过智能移动终端观看到混合现实的注释。释。释。

【技术实现步骤摘要】
基于大范围空间精准定位实现混合现实的方法


[0001]本专利技术涉及混合现实领域,尤其涉及一种基于大范围空间精准定位实现混合现实的方法。

技术介绍

[0002]在混合现实领域里,最常用的应用技术是Hololens,SLAM和Magic Leap。Hololens和Magic Leap基于深度摄像机对环境测量跟踪,它们的扫描范围都比较有限,如Hololens是0.8~3.1米左右,但在使用者从起点走出较长的距离后,原始的起点位置空间映射会消失。SLAM是通过基于地面和墙面的反射来获取环境空间的数据,从而重建实际环境,对于大面积的空间,会在使用过程中产生高成本的计算,并且在资源受限的情况下难以长期运行,也更容易产生感知混叠问题。以上三种都更适用于小范围空间。
[0003]在大范围空间中实现混合现实的较少,已有解决方案多为实现增强现实。比如2008年Jihyun等人开发的无标记边缘追踪AR(增强现实),就是集合了相机、超声波接收器和陀螺传感器等设备的UMPC,也被称为智能移动终端的增强现实博物馆导览系统。在这个系统中使用了超声波定位来实现无标记AR。该系统的技术核心是基于边缘的跟踪方法和基于特征点的跟踪方法。该文使用Canny运算符从摄像机图像中提取边缘,之后找到从摄像机图像提取的边缘与通过使用初始摄像机投影矩阵,将3D图形模型投影到图像平面而计算出的边缘之间的对应关系。2010年伦敦博物馆推出的Street Museum APP通过GPS定位技术令使用者能够在移动设备中看到虚实结合的增强现实场景。但在上述研究中都没有实现符合透视原理、遵循现实物理世界遮挡关系的混合现实,同时没有较好的解决信号遮挡与定位精度问题。有研究者使用UWB定位技术在在二维平面上根据坐标信息进行的虚实融合,并将其应用到舞台表演中。但目前并没有能在大范围的三维空间内进行准确混合现实显示的方法。

技术实现思路

[0004]基于现有技术所存在的问题,本专利技术的目的是提供一种基于大范围空间精准定位实现混合现实的方法,能解决现有根据坐标信息进行虚实融合的方法,仅是在二维平面上实现,而不能在大范围的三维空间中实现虚实融合的问题。
[0005]本专利技术的目的是通过以下技术方案实现的:
[0006]本专利技术实施方式提供一种基于大范围空间精准定位实现混合现实的方法,包括:
[0007]步骤1)通过在进行混合现实的大范围空间设置的精准定位系统对用户定位,将得到的在所述大范围空间内的用户位置信息发送至数据处理服务器;
[0008]步骤2)由所述用户的智能移动终端向所述数据处理服务器发送摄像头焦距和陀螺仪夹角数据;
[0009]步骤3)所述数据处理服务器将收集到的用户位置信息、陀螺仪夹角数据和摄像头焦距数据与该数据处理服务器中运行的3D引擎中的虚拟摄像头同步,所述3D引擎中放置有
预先拟合摆设并渲染好的根据所述大范围空间的现实空间按1:1比例建模的现实空间低精度模型和对应的多媒体注释,所述现实空间低精度模型已进行透明化处理;
[0010]步骤4)在所述用户的智能移动终端的摄像头与所述3D引擎的虚拟摄像头同步后,将渲染后的所述多媒体注释和透明化的所述现实空间低精度模型发送至所述用户的智能移动终端进行显示,使所述用户的智能移动终端屏幕显示的摄像头拍摄的真实画面中出现与所拍物品对应的多媒体注释,即实现在所述用户的智能移动终端屏幕进行混合现实的显示。
[0011]由上述本专利技术提供的技术方案可以看出,本专利技术实施例提供的基于大范围空间精准定位实现混合现实的方法,其有益效果为:
[0012]由于通过UWB定位系统对大范围空间内的用户进行精准定位,配合建立的现实空间低精度模型,能在符合透视原理、遵循现实物理世界遮挡关系的前提下实现混合现实的显示,能让用户在大范围空间环境中,通过智能移动终端观看到混合现实的注释。
附图说明
[0013]为了更清楚地说明本专利技术实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
[0014]图1为本专利技术实施例提供的基于大范围空间精准定位实现混合现实的方法的流程图;
[0015]图2为本专利技术实施例提供的方法中的UWB定位系统的示意图;
[0016]图3为本专利技术实施例提供的方法中硬件设备构成示意图。
具体实施方式
[0017]下面结合本专利技术的具体内容,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术的保护范围。本专利技术实施例中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
[0018]参见图1,3,本专利技术实施例提供一种基于大范围空间精准定位实现混合现实的方法,该方法通过大范围空间(即长度或宽度在10~300米左右的大尺度空间)精准定位来实现混合现实,可适用于多种大型室内外环境中基于混合现实技术的教育(如中小学生科学教育情景中的运用,在科学场馆或博物馆等),包括:
[0019]步骤1)通过在进行混合现实的大范围空间设置的精准定位系统对用户定位,将得到的在所述大范围空间内的用户位置信息发送至数据处理服务器;
[0020]步骤2)由所述用户的智能移动终端向所述数据处理服务器发送摄像头焦距和陀螺仪夹角数据;
[0021]步骤3)所述数据处理服务器将收集到的用户位置信息、陀螺仪夹角数据和摄像头焦距数据与该数据处理服务器中运行的3D引擎中的虚拟摄像头同步,所述3D引擎中放置有
预先拟合摆设并渲染好的根据所述大范围空间的现实空间按1:1比例建模的现实空间低精度模型和对应的多媒体注释,所述现实空间低精度模型已进行透明化处理;
[0022]步骤4)在所述用户的智能移动终端的摄像头与所述3D引擎的虚拟摄像头同步后,将渲染后的所述多媒体注释和透明化的所述现实空间低精度模型发送至所述用户的智能移动终端进行显示,使所述用户的智能移动终端屏幕显示的摄像头拍摄的真实画面中出现与所拍物品对应的多媒体注释,即实现在所述用户的智能移动终端屏幕进行混合现实的显示。
[0023]所述方法步骤1中的精准定位系统采用UWB定位系统、超声波定位系统中的任一种。
[0024]参见图2,所述精准定位系统优选采用UWB定位系统,实现在大面积空间中的精准定位。该UWB定位系统采用四个基站或四的整数倍的基站1和一个或多个定位标签2,各定位标签2固定至用户身上或用户的智能移动终端上,与基站1配合可以将标签2的实时位置数据传输到服务器3。
[0025]所述方法的步骤3中,数据处理服务器中运行的3D引擎为Unity3D引擎或Ureal3D引擎。
[0026]所述方法的步骤4中,所述3D引擎中放置有预先拟合摆设并本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于大范围空间精准定位实现混合现实的方法,其特征在于,包括:步骤1)通过在进行混合现实的大范围空间设置的精准定位系统对用户定位,将得到的在所述大范围空间内的用户位置信息发送至数据处理服务器;步骤2)由所述用户的智能移动终端向所述数据处理服务器发送摄像头焦距和陀螺仪夹角数据;步骤3)所述数据处理服务器将收集到的用户位置信息、陀螺仪夹角数据和摄像头焦距数据与该数据处理服务器中运行的3D引擎中的虚拟摄像头同步,所述3D引擎中放置有预先拟合摆设并渲染好的根据所述大范围空间的现实空间按1:1比例建模的现实空间低精度模型和对应的多媒体注释,所述现实空间低精度模型已进行透明化处理;步骤4)在所述用户的智能移动终端的摄像头与所述3D引擎的虚拟摄像头同步后,将渲染后的所述多媒体注释和透明化的所述现实空间低精度模型发送至所述用户的智能移动终端进行显示,使所述用户的智能移动终端屏幕显示的摄像头拍摄的真实画面中出现与所拍物品对应的多媒体注释,即实现在所述用户的智能移动终端屏幕进行混合现实的显示。2.根据权利要求1所述的基于大范围空间精准定位实现混合现实的方法,其特征在于,所述步骤1中的精准定位系统采用UWB定位系统、超声波定位系统中的任一种。3.根据权利要求2所述的基于大范围空间精准...

【专利技术属性】
技术研发人员:张燕翔訾宇彤
申请(专利权)人:中国科学技术大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1