基于高阶奇异值分解的视频融合性能评价方法技术

技术编号:10182551 阅读:212 留言:0更新日期:2014-07-03 13:07
本发明专利技术公开了一种基于高阶奇异值分解的视频融合性能评价方法,主要解决现有技术不能对含噪声视频图像的融合性能进行评价的问题。其实现步骤为:分别输入已配准的两个参考视频和一个融合视频;将已输入的视频组成一个四阶张量,并对其进行高阶奇异值分解,得到各自的空间几何特征背景图像和时间运动特征图像;再通过阈值化方法将时间运动特征图像划分为运动目标区域和噪声区域;然后分别设计不同的评价指标对各区域进行评价;最后通过幂指数乘法构建出整体性能评价指标,从而实现对视频图像整体融合性能的评价。本发明专利技术能够对噪声环境下视频的融合性能进行有效、准确和客观地评价,可用于监控融合视频图像质量。

【技术实现步骤摘要】

【技术保护点】
一种基于高阶奇异值分解的视频融合性能评价方法,包括如下步骤:(1)分别输入两幅参考视频和一幅融合视频,即第一幅参考视频a、第二幅参考视频b以及融合视频f;(2)用输入的第一幅参考视频a、第二幅参考视频b以及融合视频f,构成一个四阶张量υ(x,y,t,n):υ(x,y,t,n)=a(x,y,t),n=1b(x,y,t),n=2f(x,y,t),n=3,]]>其中(x,y)表示空间坐标,t表示时间坐标,n表示四阶张量第四维坐标;(3)对上述四阶张量υ(x,y,t,n)进行高阶奇异值分解,得到核心张量δ、x方向上的正交矩阵Q、y方向上的正交矩阵I、t方向上的正交矩阵G和n方向上的正交矩阵W,并将其进行乘积运算,得到特征图像ζ(x,y,t,n);(4)根据时间坐标t和四阶张量第四维坐标n的取值,对特征图像ζ(x,y,t,n)进行分类:当t=1,n=1时,则用特征图像ζ(x,y,t,n)表示第一幅参考视频a的空间几何特征背景图像ζ(x,y,1,1);当t≠1,n=1时,则用特征图像ζ(x,y,t,n)表示第一幅参考视频a的时间运动特征图像ζ(x,y,t,1);当t=1,n=2时,则用特征图像ζ(x,y,t,n)表示第二幅参考视频b的空间几何特征背景图像ζ(x,y,1,2);当t≠1,n=2时,则用特征图像ζ(x,y,t,n)表示第二幅参考视频b的时间运动特征图像ζ(x,y,t,2);当t=1,n=3时,则用特征图像ζ(x,y,t,n)表示融合视频f的空间几何特征背景图像ζ(x,y,1,3);当t≠1,n=3时,则用特征图像ζ(x,y,t,n)表示融合视频f的时间运动特征图像ζ(x,y,t,3);(5)根据第一幅参考视频a的空间几何特征背景图像ζ(x,y,1,1)、第二幅参考视频b的空间几何特征背景图像ζ(x,y,1,2)和融合视频f的空间几何特征背景图像ζ(x,y,1,3),利用基于结构相似度的评价指标Qs,对空间几何特征背景的融合性能进行评价;(6)通过阈值化法将第一幅参考视频a的时间运动特征图像ζ(x,y,t,1)和第二幅参考视频b的时间运动特征图像ζ(x,y,t,2)均划分成运动目标区域R1和噪声区域R2;(7)对运动目标区域R1和噪声区域R2的融合性能进行评价:7.1)根据第一幅参考视频a的每一帧时间运动特征图像ζ(x,y,t,1)和融合视频f中与之对应帧的时间运动特征图像ζ(x,y,t,3),得到第一幅参考视频a和融合视频f对应运动目标区域的时间评价指标Qaf(t):Qaf(t)=2Σ(x,y)∈R1|ζ(x,y,t,1)ζ(x,y,t,3)|Ea(t)+Ef(t),]]>其中,Ea(t)表示第一幅参考视频a的时间运动特征图像ζ(x,y,t,1)的运动目标区域的能量,Ef(t)表示融合视频f的时间运动特征图像ζ(x,y,t,3)的运动目标区域的能量;7.2)根据第二幅参考视频b的每一帧时间运动特征图像ζ(x,y,t,2)和融合视频f中与之对应帧的时间运动特征图像ζ(x,y,t,3),得到第二幅参考视频b和融合视频f对应运动目标区域的时间评价指标Qbf(t):Qbf(t)=2Σ(x,y)∈R1|ζ(x,y,t,2)ζ(x,y,t,3)|Eb(t)+Ef(t),]]>其中,Eb(t)表示第二幅参考视频b的时间运动特征图像ζ(x,y,t,2)的运动目标区域的能量,Ef(t)表示融合视频f的时间运动特征图像ζ(x,y,t,3)的运动目标区域的能量;7.3)根据第一幅参考视频a和融合视频f对应运动目标区域的时间评价指标Qaf(t)和第二幅参考视频b和融合视频f对应运动目标区域的时间评价指标Qbf(t),得到视频融合的时间融合性能评价指标Qt:Qt=Σt=2T(max(Qaf(t),Qbf(t)))T-1,]]>其中,T表示处理的视频图像帧数;7.4)根据第一幅参考视频a的每一帧时间运动特征图像ζ(x,y,t,1)和融合视频f中与之对应帧的时间运动特征图像ζ(x,y,t,3),得到第一幅参考视频a和融合视频f对应噪声区域的噪声评价指标Naf(t):Naf(t)=2Σ(x,y)∈R2|ζ(x,y,t,1)ζ(x,y,t,3)|Da(t)+Df(t),]]>其中,Da(t)表示第一幅参考视频a的时间运动特征图像ζ(x,y,t,1)的噪声区域的能量,Df(t)表示融合视频f的时间运动特征图像ζ(x,y,t,3)的噪声区域的能量;7.5)根据第二幅参考视频b的每一帧时间运动特征图像ζ(x,y,t,2)和融合视频f中与之对应帧的时间运动特征图像ζ(x,y,t,3),得到第二幅参考视频b...

【技术特征摘要】

【专利技术属性】
技术研发人员:张强华胜袁小青王龙
申请(专利权)人:西安电子科技大学
类型:发明
国别省市:陕西;61

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1