【技术实现步骤摘要】
一种基于密集连接网络的视频帧序列生成方法
本专利技术涉及计算机视觉领域以及视频信号处理
,尤其涉及一种基于密集连接网络的视频帧序列生成方法。
技术介绍
近年来,人工智能技术逐步普及,成为应用系统的重要组成部分,应用场景十分广泛。在公共交通领域,监控系统使用摄像头捕获视频序列,再通过系统的深度学习图像处理模块对捕获到的视频帧进行分析处理,可以实现对特定目标的识别追踪。对自动驾驶汽车而言,其系统搭建完全基于人工智能技术,其中的视觉系统作为自动驾驶汽车的“眼睛”,是整个系统中最重要的组成部分之一。在体育竞技中,智能电子裁判通过对目标运动员姿态进行跟踪,能够对运动员冲线时间或犯规等关键点进行监控,这使得体育裁决更加公正公开。在这些应用中,视频帧序列作为整个智能系统的输入,它的质量将直接影响整个智能系统的后续决策。在一些特定场景下,视频采集系统有可能会在某个时刻失效。以自动驾驶为例,日间行车进入隧道时会发生骤暗的情况,夜间行车被灯光照射时会发生骤明的情况,这些光线变换都会导致视频采集系统无法采集到有效的图像。再者,当汽车行驶在较为颠簸的路面上时,视频采集系统此时虽然能够正常运转,但是由于拍摄到的视频图像模糊程度较高,对视频处理系统而言这些图像只能被当作无效帧处理。对于自动驾驶等对实时性要求较高的系统,这种采集信息的缺失无疑将对整个系统造成较大影响。一旦作为输入的视频帧序列失效,会导致整个系统的后续部分都无法正常工作,陷入瘫痪状态。因此,如何保证系统在输入视频中存在失效帧的情况下仍能够正常工作已经成为一个紧迫的问题。一种方法是依赖现有的有效输入视频帧序列,对失效 ...
【技术保护点】
1.一种基于密集连接网络的视频帧序列生成方法,其特征在于,包括下列步骤:(1)以生成对抗网络为模型的基线,构建基于密集连接网络的生成器模型G和基于卷积神经网络的判别器模型D;(2)获取输入视频帧序列,根据输入视频帧序列的特点,对生成后续视频帧序列的高权重区域进行设定,得注意力机制损失函数;(3)构建模型的损失函数:生成器模型G的总损失函数由生成对抗网络部分的损失函数、步骤(2)中注意力机制损失函数以及生成后续视频帧序列与真实后续视频帧序列间的欧氏距离构成,判别器模型D由生成对抗网络部分的损失函数构成;(4)对输入视频帧序列进行预处理包括:对输入视频帧序列的图像进行归一化处理,在完成对输入视频帧图像的归一化处理之后,将预处理后的视频帧序列输入到生成器模型G中生成后续视频帧序列;(5)将输入视频帧序列分别与使用生成器模型G生成的后续视频帧序列和真实的视频帧序列进行拼接,将其输入到判别器模型D中得到输出的概率Perceimg,并将生成的后续视频帧序列和概率Perceimg作为步骤(3)中损失函数的输入,计算损失函数,对模型整体进行训练;(6)对生成器模型G和判别器模型D进行ite次迭代训练后 ...
【技术特征摘要】
1.一种基于密集连接网络的视频帧序列生成方法,其特征在于,包括下列步骤:(1)以生成对抗网络为模型的基线,构建基于密集连接网络的生成器模型G和基于卷积神经网络的判别器模型D;(2)获取输入视频帧序列,根据输入视频帧序列的特点,对生成后续视频帧序列的高权重区域进行设定,得注意力机制损失函数;(3)构建模型的损失函数:生成器模型G的总损失函数由生成对抗网络部分的损失函数、步骤(2)中注意力机制损失函数以及生成后续视频帧序列与真实后续视频帧序列间的欧氏距离构成,判别器模型D由生成对抗网络部分的损失函数构成;(4)对输入视频帧序列进行预处理包括:对输入视频帧序列的图像进行归一化处理,在完成对输入视频帧图像的归一化处理之后,将预处理后的视频帧序列输入到生成器模型G中生成后续视频帧序列;(5)将输入视频帧序列分别与使用生成器模型G生成的后续视频帧序列和真实的视频帧序列进行拼接,将其输入到判别器模型D中得到输出的概率Perceimg,并将生成的后续视频帧序列和概率Perceimg作为步骤(3)中损失函数的输入,计算损失函数,对模型整体进行训练;(6)对生成器模型G和判别器模型D进行ite次迭代训练后,当生成器模型G和判别器模型D的损失函数值逐步稳定在区间范围φ内时,认为生成器模型G和判别器模型D已经达到稳定状态,即可完成训练,在完成对生成器模型G和判别器模型D的训练后,即可得到生成器模型G的参数集αG和判别器模型D的参数集αD,可以将输入视频帧序列输入到生成器模型G,对后续视频帧序列进行生成。2.根据权利要求1所述的一种基于密集连接网络的视频帧序列生成方法,其特征在于,所述步骤(1)中,以生成对抗网络为模型的基线,生成对抗网络基于博弈的思想,其基本结构包括一个生成器模型G和一个判别器模型D,生成器模型G表示如下:其中Outimg表示由生成器模型G生成的图像,αG表示生成器模型G的参数集,x1,x2,...,xl表示生成器模型G的输入由l帧输入视频帧组成,X表示输入视频帧序列集合;判别器模型D表示如下Perceimg表示判别器模型D认定输入为由输入的视频帧序列和真实的后续视频帧序列拼接构成的概率,αD表示判别器模型D的参数集,img1,img2,...,imgl,omgl+1,omgl+2,...,omgl+t表示判别器模型D的输入,X表示输入视频帧序列集合,Y表示真实的后续视频帧序列集合,表示由生成器模型G生成的后续视频帧序列集合,也即判别器模型D的输入共有两种,分别为由l帧输入视频帧序列和t帧生成的后续视频帧序列拼接构成的(l+t)帧序列和由l帧输入视频帧序列和t帧真实的后续视频帧序列拼接构成的(l+t)帧序列;生成器模型G使用密集连接网络,归一化层BN和激活函数AF搭建,密集连接网络由b个密集连接块DB构成,每个密集连接块包括卷积层CN,归一化层BN以及激活函数AF,每个卷积层的滤波器大小为fs×fs,步长为s,密集连接块可表示为:DB=AF(BN(CN(data)))其中data表示密集连接块的输入,生成器模型G可由密集连接块表示为:判别器模型D使用c个卷积层CN,c个激活函数AF以及f个全连接层FN搭建,每个卷积层的滤波器大小为fs×fs,步长为s,全连接层的长度为lf,在最后一层全连接层后加入激活函...
【专利技术属性】
技术研发人员:晏婕,秦贵和,赵睿,黄玥,袁帅,许骞艺,姜慧明,张钟翰,
申请(专利权)人:吉林大学,
类型:发明
国别省市:吉林,22
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。