【技术实现步骤摘要】
语境特征融合的虚拟视点合成图像空洞填充方法
[0001]本专利技术属于图像处理
,具体是虚拟视点合成
,涉及一种语境特征融合的虚拟视点合成图像空洞填充方法。
技术介绍
[0002]随着虚拟现实、全息投影及3D视频等技术在我们生活的应用发展。人们对具有逼真效果的3D视频影像的观看需求越来越多。目前3D视频的绘制和显示技术并不完善,因其视频质量的原因,导致人们在长时间观看质量较低的3D图像、视频时会产生视觉上的不舒适。3D视频的绘制技术主要使用的是基于深度图的绘制技术(DIBR,Depth Image Based Rendering)。DIBR以其在绘制过程中速度快、多视点自由转化、网络带宽小等特点已经成为虚拟视点合成中最主要的技术。在3D视频绘制技术中,深度图是绘制虚拟视点的重要部分,深度能够指引出虚拟视点中像素的位置信息,提高像素变换之后的位置准确性。然而,DIBR的关键问题是参考视图的前景遮挡和边缘图像缺失会导致绘制的虚拟视图出现大量的空洞。传统的空洞填充算法使用块匹配的方式对空洞进行修复,但会导致图像缺乏纹理一致性且耗时较长。
[0003]近些年来,深度学习的研究发展已经在许多领域展现了卓越的性能。其中生成对抗网络的发展为虚拟视点合成的图像质量提升提供了一个新的思路。这些方法的一个显著优点是可以通过学习大量数据中的图像特征生成出合理的视觉效果,特别是在静态的数据集上能获取不错的性能。另外,针对虚拟视点绘制的图像,还应该考虑到运动的前景信息,即不同帧的空洞区域是紧贴前景并随之发生变化。
...
【技术保护点】
【技术特征摘要】 【专利技术属性】
1.语境特征融合的虚拟视点合成图像空洞填充方法,其特征在于:首先以参考视图、参考深度图和相机信息为单位,检测出深度图的前景信息并进行前景扩散,然后根据3D变换和参考信息绘制出虚拟视点图像,最后在生成对抗网络中加入具有语境特征融合的注意力生成空洞区域的像素;步骤如下:步骤(1)通过canny边缘检测方法识别出深度图的前景边缘轮廓,得到边缘轮廓图;根据边缘轮廓图对深度图的前景物体进行边缘扩散,得到深度图的前景扩散图;步骤(2)基于3D
‑
warping技术在参考视图、预处理的深度图及相机信息,获取虚拟视点图像;步骤(3)在生成对抗网络训练提取图像的卷积特征;步骤(4)使用具有语境特征融合的注意力机制,重建空洞区域的特征。2.如权利要求1所述的语境特征融合的虚拟视点合成图像空洞填充方法,其特征在于:步骤(1)具体是:(1
‑
1)首先采用canny边缘检测方法对参考序列的深度图D进行前景边缘检测,获得深度图的边缘轮廓图E;(1
‑
2)对边缘轮廓图进行滤波操作,对于非连续且闭环的边缘像素置0处理;以边缘轮廓图中某一像素点的像素值E(i,j)是否等于255为判断边界条件,如果E(i,j)=255,则该像素点(i,j)为中心像素点,对中心像素点两侧的像素点在水平方向上向外侧扩散2个像素点,得到深度图的前景扩散图。3.如权利要求2所述的语境特征融合的虚拟视点合成图像空洞填充方法,其特征在于:步骤(2)中所述的3D
‑
warping技术涉及四个坐标系,分别是:像素坐标系(u,v)、图像坐标系(x,y)、摄像机坐标系(Cam
‑
X
c
,Y
c
,Z
c
)、世界坐标系(O
‑
W
x
,W
y
,W
z
);设M=[X,Y,Z,1]
T
为三维空间中的某个像素的世界坐标,m=[u,v,1]
T
为齐次坐标系下摄像机坐标系P的像素坐标,转化公式为sm=PM;其中,s是归一化因子,T表示转置,P=K[R|t]是由相机内参矩阵K、相机旋转矩阵R和相机平移矩阵t得到的相机外参矩阵;通过参考视点的已知信息得到图像在世界坐标系M中的坐标信息,转化公式为其中,下标r表示矩阵信息来自参考视点的相机,上标
‑
1表示对矩阵求逆矩阵;根据虚拟视点的相机外参矩阵信息P
v
=K
v
[R
v
|t
v
]和世界坐标系M中的坐标信息得到虚拟视点的像素信息,转化公式为s
v
[x,y,1]
T
=K
v
R
v
[X,Y,Z,1]
T
+K
v
t
v
;其中,下标v表示矩阵信息来自虚拟视点的相机;根据求出的图像坐标信息和参考视点对应的图像坐标下的像素信息即可得到带有空洞和裂缝的虚拟视点图像;针对虚拟视点图像的裂缝,使用中值滤波进行处理,得到只带有空洞的虚拟视点图像V。4.如权利要求3所述的语境特征融合的虚拟视点合成图像空洞填充方法,其特征在于:步骤(3)具体是:(3
‑
1)使用微软3DVideos
技术研发人员:蔡毛毛,周洋,林坤,殷海兵,陈平安,黄晓峰,杨阳,俞定国,
申请(专利权)人:杭州电子科技大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。