一种利用生成网络提高视频错误隐藏效果的方法技术

技术编号:17350764 阅读:35 留言:0更新日期:2018-02-25 20:02
本发明专利技术公开了一种利用生成网络提高视频错误隐藏效果的方法。本发明专利技术基于H.264标准的错误隐藏技术的基础之上,通过构造一个CNN结构的网络G,将修复后16*16大小的宏块经过G处理以实现提高其PSNR的目的。另外我们在G网络中将输入图像直接映射到输出图像之前,将其与网络拟合的残差相加,得到最终的输出,值得注意的是本方法只针对H.264标准,不适合其他视频编码标准。本发明专利技术相能够使网络收敛更快,更快更好地得到训练结果。深度神经网络在图像处理中是高效的工具,在帧间隐藏技术基础上加入神经网络能提高修复后宏块的psnr值,使整张图片的质量更高,视频的错误隐藏效果也就越好。

A method to improve the effect of video error concealment by using generation network

The invention discloses a method for improving the video error concealment effect by using a generation network. The invention is based on the error concealment technology of H.264 standard. By constructing a network G of CNN structure, the macroblock of 16*16 size is processed by G to improve PSNR. In addition, we map the input image directly to the output image in the G network before adding the residual error to the network fitting to get the final output. It is worth noting that this method is only for H.264 standard, and is not suitable for other video coding standards. The invention can make the network converge faster, faster and better get the training results. Deep neural network is an efficient tool in image processing. Adding neural network on the basis of inter frame hiding technology can improve the PSNR value of restored macroblocks, make the quality of the whole picture higher, and the effect of video error concealment is also better.

【技术实现步骤摘要】
一种利用生成网络提高视频错误隐藏效果的方法
本专利技术涉及深度神经网络领域和基于H.264标准的视频错误隐藏领域,尤其涉及CNN结构网络和残差结构。技术背景人们对视频质量的要求在不断提高,伴着信息量的增长和高密度的存储的迫切需求,在传输过程中视频编码压缩技术变得非常重要,视频压缩技术主要利用一定的算法去除视频中的时间和空间等冗余,这样能在一定程度上压缩视频的大小,但是要以一定量的信息丢失为代价。现在主流的视频压缩标准分为H.26X和MPEG.X系列。前者主要注重提高压缩性能,后者追求在应用层面上各种功能的添加。目前H.264压缩标准因为其具有极高的压缩性能而被普遍采用,但是因为丢弃了许多的冗余信息,导致其容错能力大幅降低,任何一个比特的错误不仅可能破坏当前帧,还可能造成错误扩散,导致后续视频帧质量的严重下降。由于信道传输的本身差错和延时性,在视频编码压缩传输过程中数据会不可避免地丢失一部分,因此许多修正错误保障视频质量的方法应运而生。包括自动重传请求方法、在编码端进行错误隐藏等。自动重传请求方法利用接收端与发送端的通信,将出错序列重新发送,不过这样要额外占据一部分的信道,不利于信息的高速传播。另一方面由于解码端错误隐藏技术不需要占据信道且没有延时,格外受到人们重视。解码段错误隐藏是指在解码端将出现错误的帧进行修复,目前分为帧间错误隐藏和帧内错误隐藏,前者利用时间相关性,通过先前已经正确接收到的图像帧来恢复当前丢失的图像帧信息。后者则是利用空间上的相关性,通过一帧内已经接收到的宏块来恢复丢失宏块的信息。帧间隐藏适合于画面变化较慢的视频,解决办法是在参考帧中找到与丢失宏块相同的位置,将该宏块乘上最优运动矢量后拷贝至出错区域,该矢量选自运动矢量集,矢量集中包括①当前帧中丢失宏块的上、下、左、右4个相邻块的运动矢量,4个相邻宏块运动矢量的均值和中值以及零运动矢量②第一参考帧中与当前帧丢失宏块处在相同位置宏块运动矢量以及周围上、下、左、右4个相邻宏块运动矢量③第二参考帧中与当前帧丢失宏块处在相同位置宏块周围上、下、左、右4个相邻宏块运动矢量中值和均值。从中选择一个使得受损宏块外边界像素与运动补偿块外边界像素误差和最小的向量作为最优向量。帧内隐藏的方法:根据画面中纹理的复杂程度和边缘信息的丰富程度选择基于边缘检测错误隐藏算法或者空间像素加权平均算法。两种帧内隐藏都能获得不错的效果,但是修复质量和正常帧还是由一定的差距。另外,最近新专利技术的深度残差学习结构能够解决深度神经网络在训练过程中准确度随网络层数增加而下降的问题,使得网络层数增加的同时错误率减小,也因此提高了网络提取特征的水平。残差网络中最革新的一点是--它没有选择去拟合原始的函数H(x),而是拟合H(x)的残差函数--F(x)=H(x)-x,这样做能使得拟合过程更简单,解决了梯度问题,最后实现空前的效果。在神经网络领域,基于对抗生成神经网络的图像超分辨率技术可以得到良好的效果,在《Photo-RealisticSingleImageSuper-ResolutionUsingaGenerativeAdversarialNetwork》这篇论文中,作者构造了SRGAN(超辨率生成对抗神经网络模型),并且通过大量的数据集,使网络学会了将一张低分辨率的图象提高为高分辨率图象,与一般的超分辨率技术相比SRGAN生成图象的PSNR(峰值信噪比)更高,这意味着图片的质量更高。另外传统的以MSE(均方误差)为损失函数的技术所得到的图象像素过于平滑,局部纹理细节较少,虽然在PSNR上较低画质图象有很大提升,但在视觉感受上并没有期望的区别,而在SRGAN中构造了一个对抗鉴别模型,并抛弃了传统的损失函数转而将内容损失函数和对抗损失函数结合为感知损失函数,使得生成的图象纹理细节更多,让人们在视觉感知上有了更强的感受。运用了其中生成网络G被构造成一个前传的CNN网络,将数据集中的高分辨率图象IHR经过高斯滤波之后再经过下采样得到一个对应的低分辨率的图像ILR。将该图像首先经过了一个卷积层,这里用到64个大小为3*3的卷积核,且卷积核的步长为1,得到了64个特征图.接着在经过激活层后,将得到的数据命名为x,传统的网络直接将x输入后面的网络中得到H(x),但是论文的作者在网络中加入了残差结构,转而将残差F(x)=H(x)-x输入到后续网络中,并定义损失函数,反向传递误差调整并得到最优的F(x),然后将F(x)与x相加得到H(x),经过后续一系列的操作后得到了高分辨率的图象。值得注意的是,在提高图像的PSNR上,单独使用生成网络G比使用对抗生成网络的效果要好。这创新的模型启发了我们借鉴SRGAN中的生成结构G来提高错误隐藏修复图像的质量,以实现更高水平的视频错误隐藏。
技术实现思路
虽然传统的帧间错误隐藏能够较为完好地修复丢失宏块,使其在很大程度上与真实图像相似,但是修复后的图象质量并没有像人们所期待的那样高,因此我们决定在基于H.264标准的错误隐藏技术的基础之上,通过构造一个CNN结构的网络G,将修复后16*16大小的宏块经过G处理以实现提高其PSNR的目的。另外我们在G网络中将输入图像直接映射到输出图像之前,将其与网络拟合的残差相加,得到最终的输出,这样做有利于收敛,更快更好地训练网络。值得注意的是本方法只针对H.264标准,不适合其他视频编码标准。本专利技术解决其技术问题所采用的技术方案包括如下步骤:步骤1:根据FMO(编码端宏块重排模式)找到一张图像中丢失的宏块。因为帧内隐藏需要以丢失宏块上下左右的宏块作为参考宏块,为了方便编码码端进行错误隐藏,在H.264编码器JM86中存在一个编码端宏块重排模式--FMO,编码端宏块重排模式将一张图片的不同宏块重排并映射到不同的片组之中,这样一个片组丢失了,传送后的出错图象只会丢失一部份宏块,而丢失宏块附近的参考宏块一般不会丢失。因此我们就能够根据FMO模式知道具体哪一些宏块丢失了。步骤2:通过改进的边界匹配算法,选取最优的参考帧运动补偿块。2-1.选取参考帧。在H.264标准中编码器选取5个帧作为当前帧的参考帧,解码时缓存中也会存储当前帧的参考帧。选取多个参考帧,参考帧越多得到的效果越好;但是过多的参考帧会增加计算的复杂度减慢计算的速度,因此我们选取两个参考帧并命名为第一、第二参考帧,分别在两个参考帧中找到使SAD(详见公式1)最小的运动矢量mv1、mv2,接着比较这两个运动矢量对应的SAD1、SAD2,若SAD1小于SAD2则选取mv1为最优运动矢量,这一过程在图1有抽象表示。2-2.选取运动矢量集。矢量集中包括:①当前帧中丢失宏块的上、下、左、右4个相邻宏块的运动矢量,4个相邻宏块运动矢量的均值和中值以及零运动矢量;②第一参考帧中与当前帧丢失宏块处在相同位置宏块的运动矢量以及其上、下、左、右4个相邻宏块运动矢量;③第二参考帧中与当前帧丢失宏块处在相同位置宏块其上、下、左、右4个相邻宏块运动矢量中值和均值。选取的运动矢量与丢失宏块的关联很大,且矢量集含有大量的运动矢量,得到最优的运动矢量的慨率很大。2-3.找到运动矢量集中最优的运动矢量对应的运动补偿块。依据(1)式判断运动矢量是否为最优的:SADk=min(DU+DD+DL+DR)本文档来自技高网
...
一种利用生成网络提高视频错误隐藏效果的方法

【技术保护点】
一种利用生成网络提高视频错误隐藏效果的方法,其特征在于包括如下步骤:步骤1:根据FMO找到一张图像中丢失的宏块;步骤2:通过改进的边界匹配算法,选取最优的参考帧运动补偿块;步骤3:构造生成网络G,将经过错误隐藏的丢失宏块IE输入到神经网络中并训练,将原始的未损坏视频中的对应宏块IR与网络输出做对比,并将误差反向传播,在多次调整后得到最优的修复效果;步骤4:应用训练好的网络,将错误隐藏的宏块输入网络,得到高质量的宏块,并将处理过的宏块返回到对应帧当中,实现错误隐藏;步骤2所述的通过改进的边界匹配算法,选取最优的参考帧运动补偿块,具体实现如下:2‑1.选取参考帧;在H.264标准中编码器选取5个帧作为当前帧的参考帧,解码时缓存中也会存储当前帧的参考帧;从5个参考帧中选取两个参考帧并命名为第一、第二参考帧,分别在两个参考帧中找到使SAD最小的运动矢量mv1、mv2,比较这两个运动矢量对应的SAD1、SAD2,若SAD1小于SAD2则选取mv1为最优运动矢量;2‑2.选取运动矢量集;矢量集中包括:①当前帧中丢失宏块的上、下、左、右4个相邻宏块的运动矢量,4个相邻宏块运动矢量的均值和中值以及零运动矢量;②第一参考帧中与当前帧丢失宏块处在相同位置宏块的运动矢量以及其上、下、左、右4个相邻宏块运动矢量;③第二参考帧中与当前帧丢失宏块处在相同位置宏块其上、下、左、右4个相邻宏块运动矢量中值和均值;选取的运动矢量与丢失宏块的关联很大,且矢量集含有大量的运动矢量,得到最优的运动矢量的慨率很大;2‑3.找到运动矢量集中最优的运动矢量对应的运动补偿块;依据(1)式判断运动矢量是否为最优的:SADk=min(DU+DD+DL+DR)  (1)其中k=1、k=2分别表示第一参考帧和第二参考帧,DU、DD、DL、DR分别代表丢失宏块与运动补偿块的上下左右外边界元素差值总和:...

【技术特征摘要】
1.一种利用生成网络提高视频错误隐藏效果的方法,其特征在于包括如下步骤:步骤1:根据FMO找到一张图像中丢失的宏块;步骤2:通过改进的边界匹配算法,选取最优的参考帧运动补偿块;步骤3:构造生成网络G,将经过错误隐藏的丢失宏块IE输入到神经网络中并训练,将原始的未损坏视频中的对应宏块IR与网络输出做对比,并将误差反向传播,在多次调整后得到最优的修复效果;步骤4:应用训练好的网络,将错误隐藏的宏块输入网络,得到高质量的宏块,并将处理过的宏块返回到对应帧当中,实现错误隐藏;步骤2所述的通过改进的边界匹配算法,选取最优的参考帧运动补偿块,具体实现如下:2-1.选取参考帧;在H.264标准中编码器选取5个帧作为当前帧的参考帧,解码时缓存中也会存储当前帧的参考帧;从5个参考帧中选取两个参考帧并命名为第一、第二参考帧,分别在两个参考帧中找到使SAD最小的运动矢量mv1、mv2,比较这两个运动矢量对应的SAD1、SAD2,若SAD1小于SAD2则选取mv1为最优运动矢量;2-2.选取运动矢量集;矢量集中包括:①当前帧中丢失宏块的上、下、左、右4个相邻宏块的运动矢量,4个相邻宏块运动矢量的均值和中值以及零运动矢量;②第一参考帧中与当前帧丢失宏块处在相同位置宏块的运动矢量以及其上、下、左、右4个相邻宏块运动矢量;③第二参考帧中与当前帧丢失宏块处在相同位置宏块其上、下、左、右4个相邻宏块运动矢量中值和均值;选取的运动矢量与丢失宏块的关联很大,且矢量集含有大量的运动矢量,得到最优的运动矢量的慨率很大;2-3.找到运动矢量集中最优的运动矢量对应的运动补偿块;依据(1)式判断运动矢量是否为最优的:SADk=min(DU+DD+DL+DR)(1)其中k=1、k=2分别表示第一参考帧和第二参考帧,DU、DD、DL、DR分别代表丢失宏块与运动补偿块的上下左右外边界元素差值总和:

【专利技术属性】
技术研发人员:陈立鑫颜成钢张永兵朱翱宇
申请(专利权)人:杭州电子科技大学
类型:发明
国别省市:浙江,33

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1