本发明专利技术提供了一种基于OsgEarth的全息智能沙盘的渲染方法,涉及全息智能沙盘技术领域,所述渲染方法具体包括以下步骤:S1:获得一个OsgEarth主相机的位置姿态信息B,来确认所述三维场景下OsgEarth主相机的视角画面;S2:根据所述三维场景下OsgEarth主相机的视角画面,分别得到左眼的视角画面和右眼的视角画面;S3:分别对左眼的视角画面和右眼的视角画面进行立体渲染,并发送渲染结果给OpenVR,使显示屏进行显示。显示屏进行显示。显示屏进行显示。
【技术实现步骤摘要】
一种基于OsgEarth的全息智能沙盘的渲染方法及装置及介质
[0001]本专利技术涉及全息智能沙盘
,具体涉及一种基于OsgEarth的全息智能沙盘的渲染方法及装置及介质。
技术介绍
[0002]全息智能沙盘是综合利用地理信息、三维仿真、全息成像、自然交互等技术构建的地理环境认知平台。其中,全息展示技术也称虚拟成像技术,是利用干涉和衍射原理记录并再现物体真实的三维图像的技术。
[0003]随着显示技术不断的发展,全息展示技术获得了越来越多的关注。在影院、科技馆、博物馆,甚至虚拟现实头盔等应用场景中,可以使观看者有身临其境的感觉,从而极大地提高观看者的观看体验。现有技术中,对于全息展示技术一般使用两个或多个摄像机在三维场景中对目标成像。使用立体显示将与两个或多个摄像机中的两个摄像机组合3D图像空间显示给观看者。
[0004]随着观看者在立体视频显示中观察到目标,观看者的右眼和左眼被成像,右眼的右视线和左眼的左视线在3D图像空间中被计算,并且使用双眼追踪器将3D图像空间的注视点计算为右视线和左视线的交叉点。通过使用处理器将3D图像空间中的注视点从两个摄像机的定位和位置转换为3D真实空间中的真实目标定位,确定真实的目标定位。
技术实现思路
[0005]本专利技术的目的是提供一种基于OsgEarth的全息智能沙盘的渲染方法及装置及介质,通过获得一个OsgEarth主相机的位置姿态信息B,来确认所述三维场景下OsgEarth主相机的视角画面,再根据所述三维场景下OsgEarth主相机的视角画面,分别得到左眼的视角画面和右眼的视角画面,并进行立体渲染,将所述渲染结果发送给OpenVR,使显示屏进行显示,本专利技术基于获得一个OsgEarth主相机的位置姿态信息B来得到左眼的视角画面和右眼的视角画面,并分别进行渲染,与人眼成像特征相切合,同时提升了渲染效果和处理速度,还可以根据观看者的位置信息进行跟踪以实时地获取视角信息,使所述视角信息对应的显示图像始终朝着观看者的方向。
[0006]为解决上述技术问题,本专利技术采用了以下方案:
[0007]一种基于OsgEarth的全息智能沙盘的渲染方法,其特征在于,所述渲染方法具体包括以下步骤:
[0008]S1:获得一个OsgEarth主相机的位置姿态信息B,来确认所述三维场景下OsgEarth主相机的视角画面;
[0009]S2:根据所述三维场景下OsgEarth主相机的视角画面,分别得到左眼的视角画面和右眼的视角画面;
[0010]S3:分别对左眼的视角画面和右眼的视角画面进行立体渲染,并发送渲染结果给OpenVR,使显示屏进行显示。
[0011]进一步的,所述S1具体包括以下步骤:
[0012]S11:基于OsgEarth的地理空间信息数据,构建一个三维场景,所述三维场景包含位置姿态信息B为空值的OsgEarth主相机;
[0013]S12:获得动捕系统实时定位到的用户所佩戴的眼镜的位置姿态信息A;
[0014]S13:根据位置姿态信息A得到一个赋予值P,将所述赋予值P赋予给位置姿态信息B;
[0015]S14:根据OsgEarth主相机的位置姿态信息B来确认所述三维场景下OsgEarth主相机的视角画面。
[0016]进一步的,所述显示屏为一种水平放置的显示屏。
[0017]进一步的,所述位置姿态信息包括三维位置信息、姿态信息。
[0018]进一步的,所述三维位置信息为用户所佩戴的眼镜相对于显示屏的三维位置信息。
[0019]进一步的,所述姿态信息包括用户所佩戴的眼镜的俯视角度、眼镜的仰视角度。
[0020]进一步的,所述通过动捕系统实时定位用户佩戴的眼镜的位置姿态信息的过程具体为:
[0021]通过动捕系统来定位用户所佩戴的眼镜的反光标记,以此获取到眼镜的位置姿态信息,所述反光标记至少包括三个。
[0022]进一步的,所述用户所佩戴的眼镜支持OpenVR开发接口。
[0023]一种基于OsgEarth的全息智能沙盘的渲染装置,包括:
[0024]一个或多个处理器;
[0025]存储单元,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,能使得所述一个或多个处理器实现所述的一种基于OsgEarth的全息智能沙盘的渲染方法。
[0026]计算机可读存储的介质,其上存储有计算机程序,其特征在于,
[0027]所述计算机程序被处理器执行时能实现所述的一种基于OsgEarth的全息智能沙盘的渲染方法。
[0028]本专利技术的有益效果:
[0029]本专利技术提供了一种基于OsgEarth的全息智能沙盘的渲染方法及装置及介质,通过获得一个OsgEarth主相机的位置姿态信息B,来确认所述三维场景下OsgEarth主相机的视角画面,再分别得到左眼的视角画面和右眼的视角画面,对该左眼的视角画面和右眼的视角画面分别进行渲染,并发送渲染结果给OpenVR,使显示屏进行显示,使左眼的视角画面和右眼的视角画面分别进行渲染,与人眼成像特征相切合,同时提升了渲染效果和处理速度。
[0030]本专利技术基于获得一个OsgEarth主相机的位置姿态信息B,所述OsgEarth主相机的位置姿态信息B采用了OsgEarth和动捕系统结合的手段来获得。
[0031]具体为通过OsgEarth提供的地理空间信息数据来构建一个三维场景,所述三维场景为包含位置姿态信息B为空值的OsgEarth主相机的三维场景,并获得动捕系统来实时定位到的用户所佩戴的眼镜的位置姿态信息A,根据位置姿态信息A得到一个赋予值P,将所述赋予值P赋予给位置姿态信息B,然后根据OsgEarth主相机的给位置姿态信息B来确认所述三维场景下OsgEarth主相机的视角画面,所述三维场景下OsgEarth主相机的视角画面就为
用户所佩戴的眼镜的视角画面,可以保证所述视角画面始终朝着观看者的方向。
[0032]并且所述OsgEarth主相机可以在三维场景下自由的移动和旋转,这更加符合人在现实世界的移动和观察方式。所以OsgEarth主相机的视角可以保持与用户所佩戴的眼镜的视角一致,实现根据观看者的位置信息进行跟踪以实时地获取视角信息。
[0033]并且,本专利技术用户所佩戴的眼镜支持OpenVR开发接口,所述OpenVR开发接口能够方便地与OsgEarth从源代码层次进行集成,使本专利技术通过OpenVR开发接口来传递渲染的显示图像结果。
附图说明
[0034]图1为本专利技术的流程示意图。
[0035]图2为本专利技术的交互示意图。
[0036]图3为本专利技术的动捕系统示意图。
[0037]图4为本专利技术的用户所佩戴的眼镜和OsgEarth主相机的视角示意图。
具体实施方式
[0038]下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种基于OsgEarth的全息智能沙盘的渲染方法,其特征在于,所述渲染方法具体包括以下步骤:S1:获得一个OsgEarth主相机的位置姿态信息B,来确认所述三维场景下OsgEarth主相机的视角画面;S2:根据所述三维场景下OsgEarth主相机的视角画面,分别得到左眼的视角画面和右眼的视角画面;S3:分别对左眼的视角画面和右眼的视角画面进行立体渲染,并发送渲染结果给OpenVR,使显示屏进行显示。2.根据权利要求1所述的一种基于OsgEarth的全息智能沙盘的展示方法,其特征在于,所述S1具体包括以下步骤:S11:基于OsgEarth的地理空间信息数据,构建一个三维场景,所述三维场景包含位置姿态信息B为空值的OsgEarth主相机;S12:获得动捕系统实时定位到的用户所佩戴的眼镜的位置姿态信息A;S13:根据位置姿态信息A得到一个赋予值P,将所述赋予值P赋予给位置姿态信息B;S14:根据OsgEarth主相机的位置姿态信息B来确认所述三维场景下OsgEarth主相机的视角画面。3.根据权利要求1所述的一种基于OsgEarth的全息智能沙盘的展示方法,其特征在于,所述显示屏为一种水平放置的显示屏。4.根据权利要求1所述的一种基于OsgEarth的全息智能沙盘的展示方法,其特征在于,所述位置姿态信息包括三维位置信息、姿态信息。5.根据...
【专利技术属性】
技术研发人员:李才军,尉伯虎,冯源,周思炀,李小京,西勤,
申请(专利权)人:成都科比科科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。