一种生成融合现实场景的方法和装置制造方法及图纸

技术编号:37315859 阅读:10 留言:0更新日期:2023-04-21 22:57
本发明专利技术涉及虚拟现实技术领域,公开了一种生成融合现实场景的方法和装置,包括以下步骤,获取多角度的现实场景的视频影像数据;选取与现实场景适配的三维模型,并将现实场景与三维模型进行自动融合;对现实场景的融合边界进行无缝处理,生成并显示融合现实场景。本发明专利技术具有提高现实场景融合速度以及提升融合现实场景的显示效果,有效保障其真实性和还原性的有益效果。的有益效果。的有益效果。

【技术实现步骤摘要】
一种生成融合现实场景的方法和装置


[0001]本专利技术涉及虚拟现实
,具体涉及一种生成融合现实场景的方法和装置。

技术介绍

[0002]虚拟现实技术(简称VR),又称虚拟环境、灵境或人工环境,是指利用计算机生成一种可对参与者直接施加视觉、听觉和触觉感受,并允许其交互地观察和操作的虚拟世界的技术。
[0003]增强现实(Augmented Reality,简称AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像的技术,是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。目前对于上述两种技术的运用,则是将虚拟的信息显示在真实的外界信息中,并且进行增强显示,两种信息互相补充、叠加。例如现在就有一种头盔显示器,把显示世界与电脑图形多重合成在一起,从而实现虚拟现实显示融合,达到真实的世界影像围绕着该头盔立体显示。
[0004]虽然目前能够利用头盔显示器等装备来完成虚拟、显示融合显示,但是其观看的限制太多了,必须利用特定的设备才能直观地感受到,而对于一些特定场景,例如要直接将电脑图形直接融合在显示立体空间中,此方法却不能够实现,即使能够实现,也会因为其融合的广度不够而导致呈现效果真实性较低。

技术实现思路

[0005]本专利技术意在提供一种生成融合现实场景的方法和装置,以提高虚拟、现实场景融合结果的真实性。
[0006]为达到上述目的,本专利技术采用如下技术方案:一种生成融合现实场景的方法,包括以下步骤:
>[0007]步骤S1,获取多角度的现实场景的视频影像数据;
[0008]步骤S2,选取与现实场景适配的三维模型,并将现实场景与三维模型进行自动融合;
[0009]步骤S3,对现实场景的融合边界进行无缝处理,生成并显示融合现实场景。
[0010]本方案的原理及优点是:实际应用时,首先利用摄像头多角度采集现实场景的视频影像数据,然后根据现实场景的类型选择对应的三维模型,并将现实场景的视频影像数据导入三维模型中,使两者进行自动融合,同时,在融合过程中,对视频与模型对应边界进行无缝处理,使整体的融合效果更好,使连接处没有缺口、缝隙等缺陷,避免给人眼感观造成不适,同时还最大程度还原现实场景的实际情况。相比于现有技术,本方案的优点在于,能够将现实场景和三维模型进行自动化融合,融合效率更快,同时还能够进行无缝融合,极大程度上提升了融合显示效果,也有效保证了现实场景融合的真实性和还原性。
[0011]优选的,作为一种改进,步骤S1中,利用设置的多个不同角度的摄像头获取多个不同角度的现实场景,并且根据摄像头的位置顺序对得到的现实场景数据进行排序。
[0012]优选的,作为一种改进,步骤S2中,从三维模型库中自动匹配与当前现实场景适配的三维模型,同时识别现实场景的特征点,并根据特征点对模型作针对性边缘化改进。
[0013]优选的,作为一种改进,在获取现实场景时,根据人眼的视线变化规律动态调节摄像头的拍摄方向,并根据人眼采集图像的特点处理摄像头采集图像的边角。
[0014]优选的,作为一种改进,步骤S3中,对融合边界进行无缝处理时,利用视频叠加剪裁技术对融合的边界进行统一化处理。
[0015]优选的,作为一种改进,获取现实场景的视频图像时,给图像中的每一个像素点赋予一个初始速度矢量形成图像运动,并根据各个像素点的速度矢量特征对图像进行动态分析。
[0016]优选的,作为一种改进,判断图像中是否有运动物体,若图像中没有运动物体,则光流矢量在整个图像区域是连续变化的;若图像中有运动物体,真实目标场景和图像背景存在相对运动,则运动物体形成的速度矢量与邻域背景速度矢量存在差异,从而检测出运动物体及其位置,最后根据新位置变化调整三维模型的缩放比例完成现实场景的融合。
[0017]优选的,作为一种改进,在现实场景与三维模型融合过程时,先比较现实场景中各物体与三维模型中对应的各物体的大小,并将现实场景中物体的大小比例调整至与三维模型中一致,然后再将现实场景覆盖到三维模型上进行两者的融合。
[0018]优选的,作为一种改进,在现实场景与三维模型融合后,根据用户的显示需求动态调整摄像头的拍摄角度,并将实时调整画面对应更改到融合显示画面中去。
[0019]本专利技术还提供了一种生成融合现实场景的装置,包括微处理器,以及分别与微处理器连接的摄像头模块、融合模块和显示模块;所述摄像头模块包括多个3D摄像头;所述微处理器包括存储单元、三维模型库和数据处理单元;所述融合模块用于将采集到的现实场景与对应的三维模型进行融合;所述显示模块用于将融合后的现实场景实时显示出来。
[0020]通过本装置,使用上述生成融合现实场景的方法,能够自动化快速完成虚拟现实场景的融合,并且能够有效提高融合后场景的精准度以及真实性。
附图说明
[0021]图1为本专利技术一种生成融合现实场景的方法实施例一的流程示意图。
[0022]图2为本专利技术一种生成融合现实场景的装置实施例一的结构示意图。
具体实施方式
[0023]下面通过具体实施方式进一步详细说明:
[0024]说明书附图中的标记包括:微处理器1、摄像头模块2、融合模块3、显示模块4、存储单元5、三维模型库6、数据处理单元7。
[0025]实施例一:
[0026]本实施例基本如附图1所示:一种生成融合现实场景的方法,包括以下步骤:
[0027]步骤S1,获取多角度的现实场景的视频影像数据;
[0028]步骤S2,选取与现实场景适配的三维模型,并将现实场景与三维模型进行自动融合;
[0029]步骤S3,对现实场景的融合边界进行无缝处理,生成并显示融合现实场景。
[0030]具体的,在步骤S1中,利用安装在现实场景的多个不同角度的摄像头来获取不同视角的现实场景视频影像数据,并且在获取到的现实场景中根据摄像头的位置顺序来进行排序,便于后续利用排序的现实场景来与预先设置的三维模型进行融合,提高融合效率。
[0031]具体的,在步骤S2中,系统会从三维模型库6中自动匹配与当前现实场景适配的三维模型,同时识别现实场景的特征点,并根据特征点对模型作针对性边缘化改进。同时,上述三维模型由系统自动生成,并且还能自动适配当前采集的现实场景的视频画面视角,从而有效降低视频融合的难度,提高融合效率。
[0032]具体的,在获取现实场景的视频数据时,根据人眼的视线变化规律动态调节摄像头的拍摄方向,并根据人眼视角采集图像的特点处理摄像头采集到的视频图像的边角,例如将视频图像边角扁平化,且调整成广角的视角模式进行现实场景图像采集。
[0033]具体的,在步骤S3中,对融合边界进行无缝处理时,利用视频叠加剪裁技术对融合的边界进行统一化处理,通过对边界的处理,能够使现实场景的融合效果更好,给人眼带来极致的视觉体验。
[0034]具体的,给采集到的现实场景图像中的每一个像素点赋予一本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种生成融合现实场景的方法,其特征在于:包括以下步骤:步骤S1,获取多角度的现实场景的视频影像数据;步骤S2,选取与现实场景适配的三维模型,并将现实场景与三维模型进行自动融合;步骤S3,对现实场景的融合边界进行无缝处理,生成并显示融合现实场景。2.根据权利要求1所述的一种生成融合现实场景的方法,其特征在于:步骤S1中,利用设置的多个不同角度的摄像头获取多个不同角度的现实场景,并且根据摄像头的位置顺序对得到的现实场景数据进行排序。3.根据权利要求1所述的一种生成融合现实场景的方法,其特征在于:步骤S2中,从三维模型库中自动匹配与当前现实场景适配的三维模型,同时识别现实场景的特征点,并根据特征点对模型作针对性边缘化改进。4.根据权利要求2所述的一种生成融合现实场景的方法,其特征在于:在获取现实场景时,根据人眼的视线变化规律动态调节摄像头的拍摄方向,并根据人眼采集图像的特点处理摄像头采集图像的边角。5.根据权利要求1所述的一种生成融合现实场景的方法,其特征在于:步骤S3中,对融合边界进行无缝处理时,利用视频叠加剪裁技术对融合的边界进行统一化处理。6.根据权利要求1所述的一种生成融合现实场景的方法,其特征在于:获取现实场景的视频图像时,给图像中的每一个像素点赋予一个初始速度矢量形成图像运动,并根据各个像素点的速度...

【专利技术属性】
技术研发人员:焦谋郭界
申请(专利权)人:重庆天智慧启科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1