当前位置: 首页 > 专利查询>清华大学专利>正文

一种基于位置的虚拟现实压缩方法技术

技术编号:16283613 阅读:102 留言:0更新日期:2017-09-23 03:07
一种基于位置的虚拟现实压缩方法,其目的在于降低VR系统的高传输带宽需求,为虚拟现实系统利用当前无线网络技术实现高质量画面帧的无线传输提供基础,其主要思路为:1)编码端将虚拟现实的连续虚拟空间离散化为不同位置的全景图集合,并将相邻位置的全景图子集组合为大量互不重合的单元;2)每个单元位于中央位置的全景图被编码压缩为关键帧,剩余的全景图则全部被编码压缩为只参考该关键帧的P帧;3)经过上述操作,编码端将虚拟现实应用的虚拟空间编码压缩为一个或多个全景视频流,解码端先解码出覆盖用户当前位置的单元的关键帧至内存,然后再根据用户的具体位置快速解码出其对应位置的P帧,从而实现用户在虚拟空间内的活动。

A method of virtual reality compression based on location

A compression method of virtual reality based on position, its purpose is to reduce the high bandwidth requirement of the VR system, provides the basis for the wireless transmission of current wireless network technology to achieve high quality picture frames using virtual reality system, the main idea is as follows: 1) encoding the virtual continuous virtual space discretization of the collection is different the location of the panorama, and the panorama subset combinations adjacent locations for a large number of disjoint unit; 2) each unit is located in the central position of the panoramic image is compressed encoding as the key frame, the remaining panorama are all code P for reference frame compression only the key frames; 3) after the operation virtual space, virtual reality applications will end the encoding compression for one or more panoramic video stream, the decoder to decode the coverage of the current location of the user unit key frames to the memory, then Then, the P frame of the corresponding position is rapidly decoded according to the specific position of the user, thereby realizing the user's activity in the virtual space.

【技术实现步骤摘要】
一种基于位置的虚拟现实压缩方法
本专利技术属于虚拟现实
,特别涉及一种基于位置的虚拟现实压缩方法。
技术介绍
虚拟现实(VirtualReality,以下简称VR),在为用户提供了颠覆性的沉浸式交互体验的同时也给VR系统本身带来了极大的计算和渲染开销。为了实现高质量的VR应用体验,满足VR应用:1)低响应延迟,2)高帧刷新率和3)高质量画面的三个性能需求,VR系统通常将繁重的渲染工作交给一台强大的主机完成。主机实时地将渲染好的画面帧传输给用户所佩戴的头戴式显示器。由于VR应用的高帧刷新率和高质量画面的需求,传输这些画面帧通常需要消耗好几个Gbps的带宽资源。目前主流的无线网络技术(例如802.11ac的理论峰值带宽只有450Mbps)都难以满足如此高的传输带宽需求,因此现在的VR系统通常都使用HDMI数据线来实现主机到头戴式显示器的传输。HDMI数据线虽然使得VR高质量画面帧的传输成为可能,但是也极大地限制了VR系统的移动性。并且由于用户在使用头戴式显示器体验VR应用时无法看到周围的真实环境,数据线的使用也使得用户在体验时存在被绊倒的风险。为了解决使用数据线引入的问题,有的研究提出了利用高频段无线网络(60GHz毫米波)来提供足够的传输带宽资源。但是毫米波的信号容易被干扰,VR体验中用户的移动也会导致天线的重新校准。因此利用毫米波实现VR画面帧传输时需要巧妙地假设反射板来解决上述问题。但这也无疑增加了VR系统部署的复杂度和成本。除了增加无线网络的带宽资源,还可以考虑利用额外的计算开销(压缩、解码)来减小传输带宽的消耗。视频压缩已经在流媒体领域长期应用和发展,像H.264、H.265这样的主流视频压缩技术已经使得高码率视频流在互联网中的传输成为可能。但由于视频压缩技术是针对视频这一时间维度主导的资源优化设计的,并不能直接应用在VR场景下。因此,如何设计出面向VR应用场景的压缩方法就成为了解决VR系统高带宽需求中至关重要的问题。
技术实现思路
为了克服上述现有技术的缺点,本专利技术的目的在于提供一种基于位置的虚拟现实压缩方法,利用视频压缩技术针对VR应用场景压缩,有效降低VR系统的传输带宽需求。为了实现上述目的,本专利技术采用的技术方案是:一种基于位置的虚拟现实压缩方法,利用空间中相邻位置全景图具有高度冗余的特性,借助视频编码技术,在虚拟现实场景下按照以下步骤实现:步骤(1),编码端将VR应用的虚拟空间按照固定间隔(通常小于0.05米)进行离散化采样取点,对于每个位置采样点,取其全景图作为待编码的视频帧,同时编码端维护每个位置采样点的三维坐标信息作为其全景图的索引;步骤(2),将在一定位置范围内相似的采样点组合为一个单元,VR应用的虚拟空间由一系列互不重合的单元组成,当编码端采用视频压缩技术时,每个单元就被视为一个GOP(GroupofPictures,画面组);编码端确定单元的大小,即GOP的大小,将步骤(1)得到的一系列全景视频帧重新组合、划分为一系列互不重合的视频帧单元;步骤(3),对于每一个单元,编码端将处于正中央的位置采样点的全景视频帧编码为该GOP的关键帧,即I帧,该单元内其他位置采样点的全景视频帧将被编码为P帧,并且只将该单元内的关键帧作为其唯一的参考帧;步骤(4),编码端按步骤(3)的编码规则将VR应用的虚拟空间编码为一个或多个全景视频流,每个位置采样点的全景图对应这些全景视频流中不同时刻的视频帧,编码端维护一个三维坐标信息到该时间戳信息的映射,并将其和GOP大小作为视频流的元信息一并传给解码端;步骤(5),解码端根据用户当前位置,利用视频流的元信息定位到覆盖用户当前位置的单元,解码端首先将该单元的关键帧解码并存在内存中,然后再根据用户的实际位置快速解码出对应位置采样点的P帧;步骤(6),当用户离开当前单元覆盖范围并移动至另一个单元时,解码端释放内存中当前单元的关键帧并解码下一单元的关键帧至内存。与现有技术相比,本本专利技术借助视频压缩技术,利用近邻位置全景图具有大量冗余的特性,实现了高效的压缩方法从而有效减少了VR系统画面帧传输时的高带宽需求,从而为实现高质量VR画面帧的无线传输提供基础。相比于连线型VR系统,本方法无需使用HDMI数据线传输,保证了VR系统的移动性也消除了用户被绊倒的风险;相比于利用60GHz毫米波传输,本方法无需其复杂的部署和高昂的成本。附图说明图1为本专利技术的离散化编码单元示意图(该单元采样间隔为0.02米,覆盖一个1米*1米的立体空间),图中的立方体代表该位置采样点的全景图。具体实施方式下面结合附图和实施例详细说明本专利技术的实施方式。本专利技术一种基于位置的虚拟现实压缩方法,由编码端和解码端合作实现。在VR应用场景下,编码端通常是负责渲染工作的主机,解码端则通常是负责显示的头戴式显示器。首先,将VR应用对应的虚拟空间按照固定的间隔(小于0.05米,之前的研究表明人眼无法识别这一间隔带来的细微变化)进行离散化取点。经过离散化操作,无限的连续空间就转换为有限的位置采样点。对于每一个位置采样点,编码端都将其对应的全景图作为待压缩的视频帧。用户在虚拟空间内的活动就简化为了不同位置采样点上全景视频帧的切换(由于每个位置上各个方向的信息都包含在了全景图中,用户的头部转动就不会再带来额外的计算或渲染开销)。由于采样间隔十分微小,因此在一定位置范围内的一系列全景视频帧将非常相似。基于以上事实,本方法将这些在一定位置范围内相似的采样点组合为一个单元(如图1所示),VR应用的虚拟空间就由一系列这样互不重合的单元组成。当编码端采用视频压缩技术(例如H.264)时,每个单元就被视为一个GOP(GroupofPictures,画面组)。每个单元内处于正中央的位置采样点的全景视频帧被编码为该GOP的关键帧(也就是I帧)。该单元内其他位置采样点的全景视频帧则全部编码为P帧,并且这些P帧都只依赖于其所在单元内唯一的I帧。整个VR应用就可以编码压缩为一个或多个全景视频流,视频流中的每一帧都对应VR虚拟空间中唯一的一个位置。经过上述基于位置的VR压缩编码,用户的VR应用体验实际上就变成了全景视频流的解码播放。当用户在虚拟空间内活动时,解码端只需要解码显示当前位置对应的全景视频帧即可。由于在视频编码技术中只有I帧是自给的,P帧等的解码都需要依赖其参考帧(本方法下所有的P帧都只有一个参考帧)的解码结果。因此,解码端在用户进入到一个单元所覆盖的位置范围时将首先解码该单元对应GOP的关键帧并将其存在内存中,然后再根据用户实际所在位置快速解码出其对应的P帧。该方法实现了一个单元内任意P帧的快速随机解码。本专利技术的主要步骤具体如下:步骤(1)编码端对VR应用的虚拟空间进行离散化处理。即按照固定间隔(通常需要小于0.05米)进行采样取点,得到一组位置采样点集合position_set={p1,p2,p3,p4,...,pn}。每个位置采样点pk都是一个唯一的三维空间坐标[xk,yk,zk]。步骤(2)编码端确定单元覆盖的空间大小(即GOP的大小),将步骤(1)得到的一系列全景视频帧重新组合、划分为一系列互不重合的视频帧单元(如图1所示)。步骤(2)对于position_set中所有元素(位置采样点),编码端都渲染出该位置唯本文档来自技高网
...
一种基于位置的虚拟现实压缩方法

【技术保护点】
一种基于位置的虚拟现实压缩方法,利用空间中相邻位置全景图具有高度冗余的特性,借助视频编码技术,在虚拟现实场景下按照以下步骤实现:步骤(1),编码端将VR应用的虚拟空间按照固定间隔进行离散化采样取点,对于每个位置采样点,取其全景图作为待编码的视频帧,同时编码端维护每个位置采样点的三维坐标信息作为其全景图的索引;步骤(2),将在一定位置范围内相似的采样点组合为一个单元,VR应用的虚拟空间由一系列互不重合的单元组成,当编码端采用视频压缩技术时,每个单元就被视为一个GOP(Group of Pictures,画面组);编码端确定单元的大小,即GOP的大小,将步骤(1)得到的一系列全景视频帧重新组合、划分为一系列互不重合的视频帧单元;步骤(3),对于每一个单元,编码端将处于正中央的位置采样点的全景视频帧编码为该GOP的关键帧,即I帧,该单元内其他位置采样点的全景视频帧将被编码为P帧,并且只将该单元内的关键帧作为其唯一的参考帧;步骤(4),编码端按步骤(3)的编码规则将VR应用的虚拟空间编码为一个或多个全景视频流,每个位置采样点的全景图对应这些全景视频流中不同时刻的视频帧,编码端维护一个三维坐标信息到该时间戳信息的映射,并将其和GOP大小作为视频流的元信息一并传给解码端;步骤(5),解码端根据用户当前位置,利用视频流的元信息定位到覆盖用户当前位置的单元,解码端首先将该单元的关键帧解码并存在内存中,然后再根据用户的实际位置快速解码出对应位置采样点的P帧;步骤(6),当用户离开当前单元覆盖范围并移动至另一个单元时,解码端释放内存中当前单元的关键帧并解码下一单元的关键帧至内存。...

【技术特征摘要】
1.一种基于位置的虚拟现实压缩方法,利用空间中相邻位置全景图具有高度冗余的特性,借助视频编码技术,在虚拟现实场景下按照以下步骤实现:步骤(1),编码端将VR应用的虚拟空间按照固定间隔进行离散化采样取点,对于每个位置采样点,取其全景图作为待编码的视频帧,同时编码端维护每个位置采样点的三维坐标信息作为其全景图的索引;步骤(2),将在一定位置范围内相似的采样点组合为一个单元,VR应用的虚拟空间由一系列互不重合的单元组成,当编码端采用视频压缩技术时,每个单元就被视为一个GOP(GroupofPictures,画面组);编码端确定单元的大小,即GOP的大小,将步骤(1)得到的一系列全景视频帧重新组合、划分为一系列互不重合的视频帧单元;步骤(3),对于每一个单元,编码端将处于正中央的位置采样点的全景视频帧编码为该GOP的关键帧,即I帧,该单元内其他位置采样点的全景视频帧将被编码为P帧,并且只将该单元内...

【专利技术属性】
技术研发人员:崔勇孙霖晖赖泽祺
申请(专利权)人:清华大学
类型:发明
国别省市:北京,11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1