【技术实现步骤摘要】
一种多路视频与三维GIS场景的融合方法
本专利技术涉及地图制图学
,尤其涉及一种多路视频与三维GIS场景的融合方法。
技术介绍
虚实融合技术是视频增强三维虚拟地理场景的关键环节之一,对于减少GIS虚拟场景和真实视频图片间视觉差异,实现视觉感官虚实无缝结合,并提高真实沉浸式视觉体验具有重要作用。在视频与三维虚拟场景的融合方法中,基于视频投影的虚实融合方法因无需人工干预和离线融合、不需为被投影的纹理预先指定顶点纹理且场景还原真实度高等优势,成为三维场景虚拟融合中最常用的方法。如:美国Sarnoff公司的Stephen等提出以实时视频流作为纹理投影到模型上的方法,使用纹理映射方法计算模型表面的颜色;Neumann等基于纹理投影思想,提出了增强虚拟环境(augmentedvirtualenvironment,AVE)系统;Milosavljevic等提出基于GIS的视频监控体系结构,并在AVE系统的基础上提出了视频图像与三维模型表面纹理的透明度融合。已有上述基于视频投影的虚实融合方法,在三维场景动态更新时,通常需要对用 ...
【技术保护点】
1.一种多路视频与三维GIS场景的融合方法,其特征在于:包括如下步骤,/nS1、定义视频对象中的数据结构,并给每一视频对象的各个参数赋予初始值;/nS2、判断视频对象在场景中的空间位置信息、姿态信息以及摄像头可观察的区域信息,并根据上述信息,将视频对象抽象化为视锥体几何对象;/nS3、根据摄像头的属性信息,将场景中所有的视锥体几何对象进行分类,形成多个视频图层;/nS4、建立场景中各视频图层下所有视频对象的R树索引信息;/nS5、进入三维场景的可见范围,将可见范围内的渲染对象实时存储,并实时生成可视范围内三维场景的视锥体,即场景视锥体;利用视频图层的R树索引与场景视锥体做相 ...
【技术特征摘要】
1.一种多路视频与三维GIS场景的融合方法,其特征在于:包括如下步骤,
S1、定义视频对象中的数据结构,并给每一视频对象的各个参数赋予初始值;
S2、判断视频对象在场景中的空间位置信息、姿态信息以及摄像头可观察的区域信息,并根据上述信息,将视频对象抽象化为视锥体几何对象;
S3、根据摄像头的属性信息,将场景中所有的视锥体几何对象进行分类,形成多个视频图层;
S4、建立场景中各视频图层下所有视频对象的R树索引信息;
S5、进入三维场景的可见范围,将可见范围内的渲染对象实时存储,并实时生成可视范围内三维场景的视锥体,即场景视锥体;利用视频图层的R树索引与场景视锥体做相交性判断,若相交,则执行步骤S6;若不相交,则继续下一视频对象的判断,直至找到在可见范围内的视频对象或进入下一可见范围,并执行步骤S6;
S6、对于在可见范围内的视频对象,判断该视频对象是否为首次进入可见范围内,若是,则执行步骤S7;若否,则执行步骤S8;并在判断后实时利用可见范围内场景的当前帧数更新帧数参数的参数值;
S7、对于视频对象首次进入可见范围的情况,寻找并判断场景可见范围内的渲染对象是否存在于内存中,并在判断后执行步骤S9;
S8、对于视频对象非首次进入可见范围的情况,若该视频对象原来为全部处于场景可见范围内,则无需处理;若该视频对象原来为部分处于场景可见范围内,则进行拓扑信息更新,并根据该视频对象与新进入可见范围的渲染对象之间是否建立过拓扑关系分情况处理,并在处理后分别执行步骤S9和步骤S10;
S9、判断渲染对象的外包围盒与视频几何体对象的凸多边形之间的空间关系参数是否为相交或包含关系;若是,则将渲染对象信息存储到对应视频对象的拓扑相交渲染对象集参数中;若否,则无需融合;
S10、依据视频对象中存储的摄像头的位置、姿态和可见范围,创建视频深度相机,相机下挂载该视频对象对应的渲染对象集;将视频对象的深度图、掩膜纹理、视频纹理以及与视频对象相交或包含的渲染对象的顶点、法线和静态纹理资源传递给着色器,在着色器中利用投影纹理算法合成最终的融合结果。
2.根据权利要求1所述的多路视频与三维GIS场景的融合方法,其特征在于:步骤S1中所述视频对象的数据结构包括位置、姿态、可见范围、位于...
【专利技术属性】
技术研发人员:李成名,刘振东,赵占杰,戴昭鑫,王飞,刘嗣超,陈汉生,
申请(专利权)人:中国测绘科学研究院,
类型:发明
国别省市:北京;11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。