【技术实现步骤摘要】
一种基于视频帧间单应性变换的视频稳定方法及系统
[0001]本专利技术涉及视频监督
,尤其涉及一种基于视频帧间单应性变换的无监督深度视频稳定方法及系统。
技术介绍
[0002]由于专业的视频稳定设备的造价高昂、结构复杂,因此人们开始了对视频稳定算法的开发。传统的视频稳定方法根据是否需要三维重建划分为2D方法和3D方法,两者的主要区别在于特征轨迹平滑和稳定帧生成的方法。
[0003]2D方法通常使用特征匹配技术,利用帧间变换矩阵对视频帧进行稳定,它只估计连续帧之间的线性变换。这类方法具有鲁棒性强、实现速度更快的优点,然而,由于2D方法的线性运动模型太弱,无法从根本上处理场景中由场景深度变化所引起的视差问题。
[0004]3D方法可以解决视差带来的问题,该方法一般利用SFM技术,记录特征轨迹,重建三维位置,最终产生强稳定的结果。例如liu等人利用三维摄像机轨迹和由SFM重建的稀疏三维点云来引导翘曲,通过对摄像机轨迹的平滑实现视频的稳定。虽然得到的稳定效果要优于2D方法,但该方法比较脆弱、鲁棒性差。并且3D方法稳定视频需要昂贵的三维重建成本和大量的时间,因此虽然3D稳定的效果更好,但适用范围却不如2D方法广泛。
[0005]在深度神经网络流行的背景下,出现了基于深度学习的视频稳定方法,大多数方法是构建一种有监督的学习框架,通过对视频历史帧或相邻帧变换的学习,对不稳定帧进行一种预测,从而实现对视频的稳定。例如,Xu等人提出的基于深度学习的视频稳定方法,是利用了视频的历史帧,通过两个相机同时拍摄的
【技术保护点】
【技术特征摘要】
1.一种基于视频帧间单应性变换的视频稳定方法,其特征在于,包括以下步骤:S1:划分视频的背景区域和前景区域,覆盖所述前景区域,生成视频帧I
k
的前景掩膜M
k
;S2:基于浅层网络提取所述视频帧I
k
的低级特征F
k
,同时通过卷积网络获得所述视频帧I
k
的置信图A
k
;将所述前景掩膜M
k
、所述低级特征F
k
和所述置信图A
k
融合,得到所述视频帧I
k
的背景区域可信低级特征G
k
;S3:令k=k+1,重复S1
‑
S2,得到视频帧I
k+1
的背景区域可信低级特征G
k+1
;S4:构建运动估计神经网络,并根据所述视频帧I
k
的背景区域可信低级特征G
k
和视频帧I
k+1
的背景区域可信低级特征G
k+1
获得相邻视频帧之间的单应性关系矩阵H
k+1,k
;S5:根据所述相邻视频帧之间的单应性关系矩阵H
k+1,k
对视频的整体运动路径进行平滑处理,实现视频稳定。2.根据权利要求1所述的一种基于视频帧间单应性变换的视频稳定方法,其特征在于,所述S1包括:S11:基于语义分割模型对视频中不同的物体进行区分,确定候选对象,除候选对象外的区域判定为背景区域;所述候选对象为可移动的物体;S12:根据所述候选对象的位置信息进行筛选,对于同一候选对象,若其在前一帧和后一帧的位置变化小于设定的阈值下限,则所述候选对象所在的区域被判定为背景区域,若其位置变化大于设定的阈值上限,则被判定为前景区域;S13:被判定为背景区域的像素点用1表示,被判定为前景的候选对象所在区域用0表示,覆盖前景区域,最终生成前景掩膜M
k
。3.根据权利要求1所述的一种基于视频帧间单应性变换的视频稳定方法,其特征在于,所述视频帧I
k
的背景区域可信低级特征G
k
的计算公式为:G
k
=M
k
·
F
k
·
A
k
,1≤k≤T;式中,T表示视频的总帧数。4.根据权利要求1所述的一种基于视频帧间单应性变换的视频稳定方法,其特征在于,所述S4包括:S41:构建特征图B=[G
k
,G
k+1
],所述特征图B经历一个卷积层,提取高级语义特征Z,背景区域可信低级特征G
k
和G
k+1
的大小为H
×
W
×
C;S42:将所述高级语义特征Z重塑为一个序列{z
i
∈R
C
|i=1,...,N},N=H
×
W;S43:特征z
i
通过不同的1
×
1卷积函数转换为不同格式的特征,根据不同格式的特征计算相邻帧之间特征的相关性,计算方式如下:k
i
=W
k
z
i
;q
i
=W
q
z
i
;v
i
...
【专利技术属性】
技术研发人员:阎维青,孙祎秋,任金来,王璇,刘昊,宋永超,刘兆伟,徐金东,
申请(专利权)人:烟台大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。