用于融合现实场景的通用三维模型及其构建方法技术

技术编号:37597032 阅读:11 留言:0更新日期:2023-05-18 11:44
本发明专利技术涉及计算机视觉技术领域,公开了一种用于融合现实场景的通用三维模型及其构建方法,包括利用深度相机采集现实场景中目标区域内的静态目标视频数据,并根据采集到的静态目标视频数据得到现实场景的静态三维点云集,再根据静态三维点云集构建静态三维模型;再次利用深度相机采集现实场景中的动态目标视频数据,并得到动态三维点云集,再根据动态三维点云集构建动态三维模型;将得到的静态三维模型与动态三维模型叠加融合,构建此目标区域现实场景的通用三维模型。本通用三维模型包括多个用于模拟不同场景下的实际参照对象的融合基础特征。本发明专利技术具有提高三维模型通用性以及与现实场景融合后的真实性、还原性的有益效果。果。果。

【技术实现步骤摘要】
用于融合现实场景的通用三维模型及其构建方法


[0001]本专利技术涉及计算机视觉
,具体涉及一种用于融合现实场景的通用三维模型及其构建方法。

技术介绍

[0002]随着科技的进步和三维技术的发展,三维模型以及三维场景,因其具备非常形象、具象化的视觉体验已经在诸多领域发挥出巨大的价值,利用深度相机构建三维场景模型的方案也已经被广泛应用。深度相机,也即3D相机,能够检测出拍摄空间的距离信息,准确地知道图像中每个点离摄像头的距离,再结合该点在2D图像中的坐标,就能获取图像中每个点的三维空间坐标,再通过三维空间坐标还原真实场景,实现场景三维建模。
[0003]现在对于场景三维模型的构建,都是基于安装在不同位置的多台深度相机采集不同视角的数据来构建三维模型,具体而言,就是将采集到的位置坐标数据转化为点云数据,将点云数据进行融合后,得到连续时刻的三维模型。虽然此种方式能够得到现实场景的三维模型,但是其获取到的数据都是分段时期的,并不能完美体现现实场景的特点,因此构建完成的三维模型还存在许多不足,并不能适用于通用场景下的现实场景融合。

技术实现思路

[0004]本专利技术意在提供用于融合现实场景的通用三维模型及其构建方法,以提高现实场景三维模型的通用性。
[0005]为达到上述目的,本专利技术采用如下技术方案:用于融合现实场景的通用三维模型,包括多个三维结构体,所述三维结构体包括多个用于融合现实场景的融合基础特征,所述融合基础特征能够用于模拟不同场景下的实际参照对象。
[0006]本方案的原理及优点是:实际应用时,当采集到一段现实场景的视频影像数据后要对该现实场景进行三维模型融合,则将该段视频影像数据导致至通用三维模型中,通过三维模型中的若干融合基础特征模拟现实场景中的各个目标对象,从而在三维模型中真实还原现实场景中的各个组成部分特征。通过本模型,能够模拟任意现实场景中所包含的对象,从而构建一个完整、真实的融合三维模型与现实场景进行融合,进一步提高现实场景的真实性,也能够最大程度上提高本三维模型的通用性。
[0007]本方案还提供了一种用于融合现实场景的通用三维模型构建方法,包括以下步骤:
[0008]步骤S1,利用深度相机采集现实场景中目标区域内的静态目标视频数据,并根据采集到的静态目标视频数据得到现实场景的静态三维点云集,再根据静态三维点云集构建静态三维模型;
[0009]步骤S2,再次利用深度相机采集现实场景中的动态目标视频数据,并得到动态三维点云集,再根据动态三维点云集构建动态三维模型;
[0010]步骤S3,将得到的静态三维模型与动态三维模型叠加融合,构建此目标区域现实
场景的通用三维模型。
[0011]有益效果:通过对象类别采集数据,然后再根据采集到的静态三维点云集来构建底层基础静态三维模型,然后再采集现实场景中动态目标的点云构建动态三维模型,最后将静态三维模型和动态三维模型进行叠加融合,就能够得到该场景下的通用三维模型,不仅能够利用静态三维模型的各基础特征模拟现实场景中的各个固定组成部分,还能够利用动态三维模型的特征来表征动态目标,从而真实还原现实场景的真实场景,真实度更高,同时也能够适用于其他现实场景的融合,通用性更强。
[0012]优选的,作为一种改进,步骤S1中,在采集静态目标视频数据时,利用布置在该目标区域内不同位置的深度相机采集不同视角下的静态目标视频数据。
[0013]优选的,作为一种改进,对同一静态目标,至少利用3个不同视角的深度相机采集其视频数据。
[0014]优选的,作为一种改进,在构建静态三维模型时,还可以利用分布于该静态目标周围的深度相机对该静态目标的外表面进行扫描,得到该静态目标的外表面三维点云,并利用外表面三维点云构建该静态目标静态三维模型。
[0015]优选的,作为一种改进,若该静态目标的外形为规则外形,则采集该静态目标的外表面三维点云时,不限定该静态目标的高度尺寸。
[0016]优选的,作为一种改进,步骤S2中,得到动态三维点云集的步骤包括:
[0017]利用固定于该目标区域内的多个深度相机采集该动态目标的动态点云包;
[0018]选取目标区域内一固定点为坐标原点后建立空间坐标系;
[0019]将所有的动态点云包转化到该空间坐标系中,得到该动态目标统一的动态三维点云集。
[0020]优选的,作为一种改进,步骤S3中,在叠加融合静态三维模型与动态三维模型时,先将静态三维模型固定,然后再根据动态三维模型中动态目标的运动趋势,按时段划分叠加融合片段。
[0021]优选的,作为一种改进,按时段划分叠加融合片段为,将动态目标运动出当前可显示画面之前的片段划分为当前帧,之后划分为将来帧。
[0022]优选的,作为一种改进,在融合现实场景时,先比对现实场景中固定物体与通用三维模型中的静态三维模型,若为相同类型则直接融合,若为不同类型,则对应更改静态三维模型的结构尺寸至与固定物体的尺寸相同即可。
附图说明
[0023]图1为本专利技术用于融合现实场景的通用三维模型构建方法实施例一的流程示意图。
具体实施方式
[0024]下面通过具体实施方式进一步详细说明:
[0025]实施例一:
[0026]本实施例基本如附图1所示:用于融合现实场景的通用三维模型构建方法,包括以下步骤:
[0027]步骤S1,利用深度相机采集现实场景中目标区域内的静态目标视频数据,并根据采集到的静态目标视频数据得到现实场景的静态三维点云集,再根据静态三维点云集构建静态三维模型;
[0028]步骤S2,再次利用深度相机采集现实场景中的动态目标视频数据,并得到动态三维点云集,再根据动态三维点云集构建动态三维模型;
[0029]步骤S3,将得到的静态三维模型与动态三维模型叠加融合,构建此目标区域现实场景的通用三维模型。
[0030]在采集静态目标视频数据时,利用布置安装在该目标区域内不同位置的多个深度相机采集该区域内所有静态目标在不同视角下的静态目标视频数据,具体的,在采集同一个静态目标时,至少利用分别在其周围的3个不同视角的深度相机来完成采集,以确保其周身360度均完成数据采集。
[0031]采集完成静态目标的视频数据后,选择一个固定时间点择选出所有静态目标当前时刻的图像帧,并将当前时刻的所有图像帧均转化为三维点云数据,得到现实场景的静态三维点云集合,最后根据静态三维点云集合构建静态三维模型。
[0032]在采集现实场景中的动态目标视频数据时,先利用固定于该目标区域内的多个深度相机依次采集动态目标的动态点云包,得到多个动态点云包,然后再选择该目标区域内一固定点为坐标原点建立现实场景的空间坐标系,将采集到的所有动态点云包转化到该空间坐标系中,得到所有动态目标统一的动态三维点云集合,最后根据得到的动态三维点云集合构建动态三维模型。
[0033]在分别建立静态三维模型与动态三维模型后,选择一个点作为其共同的坐标本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.用于融合现实场景的通用三维模型,其特征在于:包括多个三维结构体,所述三维结构体包括多个用于融合现实场景的融合基础特征,所述融合基础特征能够用于模拟不同场景下的实际参照对象。2.根据权利要求1所述的用于融合现实场景的通用三维模型构建方法,其特征在于:包括以下步骤:步骤S1,利用深度相机采集现实场景中目标区域内的静态目标视频数据,并根据采集到的静态目标视频数据得到现实场景的静态三维点云集,再根据静态三维点云集构建静态三维模型;步骤S2,再次利用深度相机采集现实场景中的动态目标视频数据,并得到动态三维点云集,再根据动态三维点云集构建动态三维模型;步骤S3,将得到的静态三维模型与动态三维模型叠加融合,构建此目标区域现实场景的通用三维模型。3.根据权利要求2所述的用于融合现实场景的通用三维模型构建方法,其特征在于:所述步骤S1中,在采集静态目标视频数据时,利用布置在该目标区域内不同位置的深度相机采集不同视角下的静态目标视频数据。4.根据权利要求3所述的用于融合现实场景的通用三维模型构建方法,其特征在于:对同一静态目标,至少利用3个不同视角的深度相机采集其视频数据。5.根据权利要求2所述的用于融合现实场景的通用三维模型构建方法,其特征在于:在构建静态三维模型时,还可以利用分布于该静态目标周围的深度相机对该静态目标的外表面进行扫描,得到该静态目标的外表面三维点云,并利用外表面三维点...

【专利技术属性】
技术研发人员:焦谋郭界
申请(专利权)人:重庆天智慧启科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1