The invention discloses a video super-resolution reconstruction method based on multi-memory and mixed loss, which includes optical flow network and image reconstruction network. In optical flow network, for input frames, the optical flow between the current frame and the reference frame is calculated, and the optical flow is used as motion compensation to compensate the current frame as much as possible to be similar to the reference frame. In the image reconstruction network, the compensated multi-frames are input into the network in turn. The network uses multi-memory residual blocks to extract image features, so that the feature map information of the previous frame can be received by the latter input frame. Finally, the output low-resolution feature image is subpixel enlarged, and the final high-resolution video frame is obtained by adding the enlarged image with double cube interpolation. In the training process, a hybrid loss function is used to train both optical flow network and image reconstruction network. The invention greatly enhances the feature expression ability of inter-frame information fusion, and can reconstruct high-resolution video with real and rich details.
【技术实现步骤摘要】
一种基于多记忆及混合损失的视频超分辨率重建方法
本专利技术属于数字图像处理
,涉及一种视频超分辨率重建方法,具体涉及一种多记忆的混合损失函数约束的超分辨率重建方法。
技术介绍
近年来,随着高清显示设备(如HDTV)的出现以及4K(3840×2160)和8K(7680×4320)等超高清视频分辨率格式的出现,由低分辨率视频重建出高分辨率视频的需求日益增加。视频超分辨率是指从给定的低分辨率视频重建高分辨率视频的技术,广泛应用于高清电视、卫星图像、视频监控等领域。目前,应用最广泛的超分辨率方法是基于插值的方法,如最近邻插值,双线性插值以及双三次插值。这种方法通过将固定的卷积核应用于给定的低分辨率图像输入,来计算高分辨率图像中的未知像素值。因为这种方法只需要少量的计算,所以它们的速度非常快。但是,它们的重建效果也欠佳,特别是在重构高频信息较多的图像区域。近年来,为了找到更好的方式来重建丢失的信息,研究人员们开始致力于研究基于样本的方法,也称为基于学习的方法。最近,Dong等人率先提出基于卷积神经网络的超分辨率方法,该方法具有从众多多样化图像样本中学习细节的能力,因而备受关注。单张图像超分辨率是指利用一张低分辨率的图像,重构出其对应的高分辨率图像。与之相比,视频超分辨率则是利用多张有关联性的低分辨率视频帧,重建出它们对应的高分辨率视频帧。除了利用单张图像内部的空间相关性,视频超分辨率更重视利用低分辨率视频帧之间的时间相关性。传统的视频超分辨率算法利用图像先验知识,来进行像素级的运动补偿和模糊核估计,以此重建高分辨率视频。然而,这些方法通常需要较多计算资源,并且 ...
【技术保护点】
1.一种基于多记忆及混合损失的视频超分辨率重建方法,其特征在于,包括以下步骤:步骤1:选取若干视频数据作为训练样本,从每个视频帧中相同的位置截取大小为N×N像素的图像作为高分辨率学习目标,将其下采样r倍,得到大小为M×M的低分辨率图像,作为网络的输入,其中,N=M×r;步骤2:将2n+1张时间连续的低分辨率视频图像输入光流网络,作为低分辨率输入帧,而处于中心位置的低分辨率图像帧作为低分辨率参考帧;依次计算每个低分辨率输入帧与低分辨率参考帧之间的光流,并使用光流对每个低分辨率输入帧作运动补偿,获得低分辨率补偿帧;其中,n≥0;步骤3:将低分辨率补偿帧输入图像重构网络,利用多记忆残差块进行帧间信息融合,得到残差特征图;步骤4:采用混合损失函数,对光流网络和图像重构网络同时进行约束,并进行反向传播学习;步骤5:将步骤3中得到的残差特征图放大,获得高分辨率残差图像,并将参考帧放大,获得高分辨率插值图像;步骤6:将步骤5中得到的高分辨插值图像与高分辨率残差图像相加,得到超分辨率视频帧。
【技术特征摘要】
1.一种基于多记忆及混合损失的视频超分辨率重建方法,其特征在于,包括以下步骤:步骤1:选取若干视频数据作为训练样本,从每个视频帧中相同的位置截取大小为N×N像素的图像作为高分辨率学习目标,将其下采样r倍,得到大小为M×M的低分辨率图像,作为网络的输入,其中,N=M×r;步骤2:将2n+1张时间连续的低分辨率视频图像输入光流网络,作为低分辨率输入帧,而处于中心位置的低分辨率图像帧作为低分辨率参考帧;依次计算每个低分辨率输入帧与低分辨率参考帧之间的光流,并使用光流对每个低分辨率输入帧作运动补偿,获得低分辨率补偿帧;其中,n≥0;步骤3:将低分辨率补偿帧输入图像重构网络,利用多记忆残差块进行帧间信息融合,得到残差特征图;步骤4:采用混合损失函数,对光流网络和图像重构网络同时进行约束,并进行反向传播学习;步骤5:将步骤3中得到的残差特征图放大,获得高分辨率残差图像,并将参考帧放大,获得高分辨率插值图像;步骤6:将步骤5中得到的高分辨插值图像与高分辨率残差图像相加,得到超分辨率视频帧。2.根据权利要求1所述的基于多记忆及混合损失的视频超分辨率重建方法,其特征在于:步骤2中,采用从粗粒度到细粒度的方法提取光流,并使用运动补偿算子对输入帧进行运动补偿。3.根据权利要求1所述的基于多记忆及混合损失的视频超分辨率重建方法,其特征在于:步骤3中,采用多记忆残差块,存储当前帧的特征信息,以便与下一帧进行特征信息融合;In+1={In,On}={In,Con...
【专利技术属性】
技术研发人员:王中元,易鹏,江奎,韩镇,
申请(专利权)人:武汉大学,
类型:发明
国别省市:湖北,42
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。