三维视频编码中的被限制视差矢量获取方法技术

技术编号:11305374 阅读:94 留言:0更新日期:2015-04-16 00:01
本发明专利技术提出一种三维视频编解码方法。在一实施例中,本方法对视差矢量进行限制,以产生被限制视差矢量,其中该被限制视差矢量的水平分量以及/或者垂直分量被限制为0或位于M到N个视差矢量精度单元的范围内,且M和N为整数。在另一实施例中,从当前块的被限制相邻块集合中,确定基于视差矢量的运动补偿预测的所获取视差矢量。在另一实施例中,获取所获取视差矢量,以在当前块的视图间合并候选不可用或无效时代替该视图间合并候选。在另一实施例中,根据视差矢量确定当前块的视差矢量差值或运动矢量差值,且视差矢量差值/运动矢量差值被限制为0或位于一范围内。

【技术实现步骤摘要】
【国外来华专利技术】【专利说明】交叉引用本专利技术要求2012年7月27日递交的N0.61/676,686,专利技术名称为“Disparityvector derivat1n for video coding”的美国临时申请案的优先权,且将上述美国临时申请案作为参考。
本专利技术有关于三维(three-dimens1nal,3D)视频编码,且尤其有关于3D视频编码的视差矢量(Disparity Vector,DV)的获取。
技术介绍
近些年3D电视(televis1n,TV)已成为技术潮流,其可带给观看者非常好的观看体验。已开发多种技术以用于3D观看,其中,多视图(mult1-view)视频尤其是用于3DTV的一种关键技术。传统视频为二维(two-dimens1nal,2D)媒体,只能提供观看者摄像机角度的一场景的单一视图。然而,多视图视频可提供动态场景的任意视点(viewpoint),并提供给观看者真实的感觉。多视图视频通常通过同时采用多个相机捕捉一场景而建立,其中多个相机被适当放置,使得每个相机可从一个视点捕捉该场景。相应地,多个相机将捕捉对应于多个视图的多个视频序列(video sequence)。为了提供更多的视图,已采用更多的相机来产生具有与视图有关的大量视频序列的多视图视频。相应地,多视图视频需要大存储空间进行存储以及/或者高带宽进行传输。因此,本
中已开发了多视图视频编码技术,以减少所需的存储空间或传输带宽。一种直接的方法是简单地对每个单一视图的视频序列独立地应用传统视频编码技术而忽略不同视图之间的任何关联(correlat1n)。这种编码系统效率将非常低。为了改进多视图视频编码的效率,典型的多视图视频编码可利用视图间(inter-view)冗余(redundancy) ο因此,大部分3D视频编码(3D Video Coding,3DVC)系统考虑视频数据与多个视图和深度地图(cbpth map)之间的关联。标准开发组织,国际电信联盟电信标准化部(Internat1nal Telecommunicat1n Un1n Telecommunicat1n Standardizat1nSector,ITU-T)视频编码专家组(Video Coding Experts Group,VCEG)的的联合视频组(Joint Video Team, JVT)以及国际标准化组织(Internat1nal Standard Organizat1n,ISO)/国际电工委员会(Internat1nal Electrotechnical Commiss1n, IEC)运动图象专家组(Moving Picture Experts Group, MPEG),将 H.264/MPEG-4 高级视频编码(AdvancedVideo Coding,AVC)扩展为多视图视频编码(mult1-view video coding,MVC),用于立体声和多视图视频。MVC采用时间以及空间预测,以改进压缩效率。在MVC的发展中,提出了一些宏块级的(macroblock-level)编码工具,包括亮度补偿(illuminat1n compensat1n)、自适应参考滤波(adaptive reference filtering)、运动跳跃模式(mot1n skip mode)以及视图合成预测(view synthesis predict1n)。这些编码工具被提出以利用多视图之间的冗余。亮度补偿用来补偿不同视图之间的亮度变化。自适应参考滤波用来降低相机之间聚焦不匹配(focus mismatch)造成的变化。运动跳跃模式允许当前视图中的运动矢量(Mot1nVector, MV)从其他视图中推测出来。视图合成预测用于由其他视图预测当前视图中的图片。然而在MVC中,深度地图和相机参数并不被编码。在新一代3DVC最近的标准化发展中,纹理(texture)数据、深度数据以及相机参数均被编码。举例来说,图1显示了3D视频编码中的通用预测架构,其中符合标准视频编码器(standard conforming videocoder)被用于基础视图(base_view)视频。输入的3D视频数据包括对应于多个视图的图片(110-0, 110-1,110-2,…)。为每个视图收集的图片形成对应视图的图片序列。通常,对应于基础视图(也被称为独立视图)的图片序列110-0通过视频编码器130-0独立编码,其中视频编码器130-0符合如H.264/AVC或高效率视频编码(High Efficiency Video Coding,HEVC)的视频编码标准。用于与依赖视图(即视图1,2,...)有关的图片序列的视频编码器(130-1,130-2,…)除采用时间预测外,进一步采用视图间预测。视图间预测通过图1中的短虚线指示。为了支持交互应用,与每个视图上的场景有关的深度地图(120-0, 120-1, 120-2,…)也包含在视频比特流(bitstream)中。为了减少与深度地图有关的数据,如图1所示,深度地图通过深度地图编码器(140-0,140-1,140-2,…)进行压缩,且已压缩深度地图数据包含在比特流中。多工器(multiplexer) 150用来将来自图片编码器和深度地图编码器的已压缩数据进行组合。深度信息可用来在所选中间视点处合成虚拟视图。对应于所选视图的图片可基于对应于另一视图的图片,采用视图间预测进行编码。在此情况下,所选视图的图片被称为依赖视图。在基于3D 视频编码的 HEVC 版本 3.1 (HEVC based 3D video coding vers1n3.LHTM 3.1)的参考软件中,视图间候选被添加为用于帧间(Inter)、合并(Merge)和跳跃(Skip)模式的MV或DV候选,以重用(re-use)相邻视图的先前已编码运动信息。在HTM3.1中,被称为编码单元(Coding Unit,⑶)的压缩的基本单元为2Nx2N方形块。每个⑶可被递归地分成4个更小的⑶,直到达到预定最小尺寸。每个⑶包括一个或多个预测单元(Predict1n Unit,PU)。在本文件的其余部分中,除非明确指出,否则术语“块”代表TO。为了共享相邻视图的先前已编码纹理信息,一种被称为视差补偿预测(Disparity-Compensated Predict1n,DCP)的技术已被包括在HTM3.1中,以作为运动补偿预测(Mot1n-Compensated Predict1n,MCP)的代替方案。MCP代表采用同一视图的先前已编码图片的帧间图片预测,而DCP代表采用同一访问单元(access unit)中其他视图的先前已编码图片的帧间图片预测。图2显示了 3D视频编码系统采用MCP和DCP的示范例。用于DCP的矢量(210)被称为DV,其是MCP采用的MV的模拟。图2显示了与MCP有关的三个MV(220、230和240)。此外,DCP块的DV也可通过视差矢量预测子(DisparityVector Predictor,DVP)候选预测,其中DVP候选从相邻块或同样采用视图间参考图片的时间并置块(temporal collocated block)获取。在HTM3.1中,当为合并本文档来自技高网...

【技术保护点】
一种三维视频编码或解码方法,该方法包括:接收与对应于当前视图的当前帧的当前块有关的第一数据;确定该当前块的第一视差矢量;限制该第一视差矢量以产生被限制视差矢量,其中该被限制视差矢量的水平分量以及/或者垂直分量被限制为0或位于M到N个视差矢量精度单元的范围内,且M和N为整数;以及基于该被限制视差矢量,将视图间预测编码或解码应用于该第一数据。

【技术特征摘要】
【国外来华专利技术】...

【专利技术属性】
技术研发人员:陈渏纹林建良安基程黄毓文雷少民
申请(专利权)人:联发科技股份有限公司
类型:发明
国别省市:中国台湾;71

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1