System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术涉及分层深度数据,更确切地说,涉及利用光场内容的属性的分层格式,无论那些光场内容是视频还是画面。
技术介绍
1、在立体或多视图系统中,仅在格式化数据时考虑场景的水平尺寸。在例如由相机被水平对准的情况下由相机装备组成的采集系统的情况下,仅可以提取3d视图之间的水平视差。基于深度图像的呈现技术众所周知为在捕获的视图之间内插中间视图但总是在水平方向上进行。
2、在多视图图像中,图像之间存在大量冗余。分层深度视频格式或ldv是一种众所周知的格式化解决方案用于格式化多视图图像,其减少图像之间的冗余信息量。在ldv中,选择参考中心图像,并且提供由多视图图像的其它图像带来的信息,其是在中心图像中被遮挡的主要区域。ldv格式然后由表示处理多视图图像的必要信息的四个层组成:
3、-选择的中心图像,
4、-与选择的中心图像相关联的深度图,
5、-遮挡图像,
6、-和深度遮挡图。
7、因此,只有非冗余的信息才被传送到呈现设备。这些信息被包括在从深度遮挡图生成的遮挡掩模(mask)中。
8、与多视图上下文中使用的其它格式一样,ldv格式包含单个水平遮挡层,因此无法呈现揭示多层去遮挡的视点,这可能发生在宽的轴间距离情况下看见的复杂场景。
9、考虑到前述内容,设计了本专利技术。
技术实现思路
1、根据本专利技术的一方面,提供一种方法,包括:
2、接收光场内容,所述光场内容包括场景的参考视图(c
3、从所述参考视图的所述光场内容生成图像的深度图;
4、在所述第一方向上生成第一组遮挡信息;
5、在所述至少第二方向上生成至少第二组遮挡信息;以及
6、生成所述场景的分层深度数据(203),所述分层深度数据包括来自所述参考视图的所述光场内容的图像、所述深度图、所述第一组遮挡信息和所述至少第二组遮挡信息。
7、根据本专利技术的一方面,提供一种装置,包括:
8、至少一个处理器;以及
9、存储指令的存储器,当所述指令被所述至少一个处理器执行时,使得所述装置:
10、接收光场内容,所述光场内容包括场景的参考视图、沿着第一方向在视点上不同于所述参考视图的第一组视图以及沿着至少第二方向在视点上不同于所述参考视图的至少第二组视图,其中所述至少第二方向不同于所述第一方向;
11、从所述参考视图的所述光场内容生成图像的深度图;
12、在所述第一方向上生成第一组遮挡信息;
13、在所述至少第二方向上生成至少第二组遮挡信息;以及
14、生成所述场景的分层深度数据,所述分层深度数据包括来自所述参考视图的所述光场内容的图像、所述深度图、所述第一组遮挡信息和所述至少第二组遮挡信息。
15、根据本专利技术的一方面,提供一种非暂时性计算机可读介质,包括可由至少一个处理器执行以执行方法的指令,所述方法包括:
16、接收光场内容,所述光场内容包括场景的参考视图、沿着第一方向在视点上不同于所述参考视图的第一组视图以及沿着至少第二方向在视点上不同于所述参考视图的至少第二组视图,其中所述至少第二方向不同于所述第一方向;
17、从所述参考视图的所述光场内容生成图像的深度图;
18、在所述第一方向上生成第一组遮挡信息;
19、在所述至少第二方向上生成至少第二组遮挡信息;以及
20、生成所述场景的分层深度数据,所述分层深度数据包括来自所述参考视图的所述光场内容的图像、所述深度图、所述第一组遮挡信息和所述至少第二组遮挡信息。
21、根据本专利技术的另一方面,提供一种用于生成场景的分层深度数据的计算机实现的方法,包括:
22、-根据表示场景的光场内容计算图像的深度图,所述图像是根据给定的观看方向观看的,
23、-在与来自光场内容的图像的观看方向不同的第一方向上计算与来自光场内容的图像相关联的第一组遮挡信息,
24、-在与来自光场内容的图像的观看方向以及第一方向不同的至少第二方向上计算与来自光场内容的图像相关联的至少第二组遮挡信息,
25、-聚合来自光场内容的图像、深度图、第一组遮挡信息和第二组遮挡信息,以生成场景的分层深度数据。
26、根据本专利技术的实施例的方法不限于由光学设备直接获取的光场内容。这些内容可以是由计算机完全或部分地模拟用于给定的场景描述的计算机图形图像(cgi)。光场内容的另一个来源可以是经过修改的后期制作数据,例如颜色分级,从光学设备或cgi获得的光场内容。现在在电影工业中常见的是具有使用光学采集设备获取的数据和cgi数据二者的混合。
27、根据本专利技术的实施例的方法依赖于光场内容的使用,该光场内容在每个方向上提供视差并且使得能够在与所考虑的图像的观看方向不同的多个方向上改变视点。
28、依赖于光场内容的使用的这样的方法使得能够呈现可以揭示多层去遮挡的视点,而这可能发生在宽的轴间距离情况下的复杂场景中。
29、根据上述方法生成的分层深度数据至少包括来自光场内容的图像、与所述图像相关联的深度图、与所述图像相关联的第一组遮挡信息和第二组遮挡信息。
30、在本专利技术的实施例中,光场内容可以是视频内容。
31、根据用于生成分层深度数据的方法的实施例,将第一组遮挡信息和第二组遮挡信息合并在一起以生成第三组遮挡信息,所述第三组信息与来自光场内容的图像和深度图聚合,以生成场景的分层深度数据。
32、合并第一和第二组遮挡信息使得能够减少要传送的数据量和要在接收器侧处理的数据量。第一和第二组遮挡信息的合并导致第三组遮挡信息的创建,其可以采取唯一的遮挡信息的形式,以表示在两个所考虑的方向上的遮挡信息。
33、根据用于生成分层深度数据的方法的实施例,计算第一和第二组遮挡信息在于,将光场内容的图像与第一方向、第二方向上的来自光场内容的另一相邻图像分别进行比较。
34、例如,考虑到第一方向是关于来自光场内容的图像的观看方向的水平方向,通过将光场内容的图像与来自水平方向上的光场内容的相邻图像进行比较来获得第一组遮挡信息。
35、考虑到第二方向是关于来自光场内容的图像的观看方向的垂直方向,通过将光场内容的图像与来自垂直方向上的光场内容的相邻图像进行比较来获得第二组遮挡信息。
36、本专利技术的另一个目的关注一种用于生成场景的分层深度数据的装置,包括:处理器,被配置为:
37、-根据表示场景的光场内容计算图像的深度图,该图像是根据给定的观看方向观看的,
38、-在与来自光场内容的图像的观看方向不同的第一方向上计算与来自光本文档来自技高网...
【技术保护点】
1.一种方法,包括:
2.根据权利要求1所述的方法,其中,所述第一组遮挡信息的生成包括:
3.根据权利要求1所述的方法,其中,所述至少第二组遮挡信息的生成包括:
4.根据权利要求1所述的方法,其中,所述参考视图是相对于所述第一组视图和所述至少第二组视图的中心视图。
5.根据权利要求1所述的方法,其中,所述第一组遮挡信息和所述至少第二组遮挡信息被合并成第三组遮挡信息,并且其中分层深度数据的生成包括:
6.一种装置,包括:
7.根据权利要求6所述的装置,其中,所述第一组遮挡信息的生成包括:
8.根据权利要求6所述的装置,其中,所述至少第二组遮挡信息的生成包括:
9.根据权利要求6所述的装置,其中,所述参考视图是相对于所述第一组视图和所述至少第二组视图的中心视图。
10.根据权利要求6所述的装置,其中,所述第一组遮挡信息和所述至少第二组遮挡信息被合并成第三组遮挡信息,并且其中分层深度数据的生成包括:
11.根据权利要求6所述的装置,还包括用于捕获所述光场内容的捕获设备
12.根据权利要求6所述的装置,其中,所述光场内容包括由光学设备获取的光场内容、由计算机至少部分模拟的计算机图形图像、由所述光学设备获取的所述光场内容的后期制作数据、由所述计算机至少部分模拟的计算机图形图像的后期制作数据及其组合中的任何一种。
13.根据权利要求6所述的装置,其中,所述装置是便携式设备、平板电脑和智能电话中的任意一种。
14.一种非暂时性计算机可读介质,包括可由至少一个处理器执行以执行方法的指令,所述方法包括:
...【技术特征摘要】
1.一种方法,包括:
2.根据权利要求1所述的方法,其中,所述第一组遮挡信息的生成包括:
3.根据权利要求1所述的方法,其中,所述至少第二组遮挡信息的生成包括:
4.根据权利要求1所述的方法,其中,所述参考视图是相对于所述第一组视图和所述至少第二组视图的中心视图。
5.根据权利要求1所述的方法,其中,所述第一组遮挡信息和所述至少第二组遮挡信息被合并成第三组遮挡信息,并且其中分层深度数据的生成包括:
6.一种装置,包括:
7.根据权利要求6所述的装置,其中,所述第一组遮挡信息的生成包括:
8.根据权利要求6所述的装置,其中,所述至少第二组遮挡信息的生成包括:
9.根据权利要求6所述的装置,其中,所述参考视图是相对于所述第一组视图和所述至少第二组视...
【专利技术属性】
技术研发人员:D·多延,G·博伊森,S·蒂鲍德,
申请(专利权)人:交互数字VC控股公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。