当前位置: 首页 > 专利查询>清华大学专利>正文

一种基于视觉模型的深度提取方法技术

技术编号:8683349 阅读:173 留言:0更新日期:2013-05-09 03:28
本发明专利技术提出了一种基于视觉模型的深度提取方法,其包括如下步骤:首先,将视频图像的彩色信号转化为灰度信号;然后,计算相邻两像素点处于同一深度的概率;再后,计算所有像素点的深度值;最后,对计算的所有像素点的深度值进行滤波平滑以及归一化处理。本发明专利技术的基于视觉模型的深度提取方法将视觉模型引入深度提取,使深度计算结果更加准确。

【技术实现步骤摘要】

本专利技术涉及计算机视觉
,特别涉及。
技术介绍
与观看2D视频相比,观众观看3D视频能产生身临其境的真实感受,因此,3D技术的发展受到越来越多的重视。但是,目前3D视频的制作费用昂贵,致使3D片源不足,有一种解决方案是通过2D视频转换成3D视频。由于3D视频格式通常采用“视频+深度”的模式,在将2D视频转换成3D视频的过程中,需要进行深度提取,目前现有的深度提取方法是从图片的强度、颜色和纹理信息中提取深度,这种提取方法没有考虑人类的视觉模型,提取的深度信息不够准确。
技术实现思路
本专利技术旨在至少解决现有技术中存在的技术问题,特别创新地提出了。为了实现本专利技术的上述目的,本专利技术提供了,其包括如下步骤:第一步:将视频图像的彩色信号转化为灰度信号;第二步:计算相邻两像素点处于同一深度的概率;第三步:计算所有像素点的深度值;第四步:对计算的所有像素点的深度值进行滤波平滑以及归一化处理。在本专利技术的一个优选实施例中,根据HMAX视觉模型计算相邻两像素点处于同一深度的概率,该HMAX视觉模型计算相邻两像素点处于同一深度的概率包括如下步骤:a:在SI层对视频图像进行滤波处理;b:在Cl层,综合所述SI层的输出进行滤波和归一化操作;c:在S2层对图像进行滤波处理;d:在C2层,综合所述S2层的输出并进行滤波和归一化操作。本专利技术的基于视觉模型的深度提取方法将视觉模型引入深度提取,使深度计算结果更加准确。本专利技术的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本专利技术的实践了解到。附图说明本专利技术的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:图1是本专利技术基于视觉模型的深度提取方法的流程图。具体实施例方式下面详细描述本专利技术的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本专利技术,而不能理解为对本专利技术的限制。图1是本专利技术基于视觉模型的深度提取方法的流程图,从图中可见,该深度提取方法包括如下步骤:第一步:将视频图像的彩色信号转化为灰度信号;第二步:计算相邻两像素点处于同一深度的概率;第三步:计算所有像素点的深度值;第四步:对计算的所有像素点的深度值进行滤波平滑以及归一化处理。 在本专利技术的一个优选实施方式中,具体步骤为:首先,将视频图像的彩色信号转化为灰度信号,对每一个像素点,灰度信号取为I (u, v) = (R(u, V) +G (u, V) +B (u, v))/3,其中,R、G、B为视频图像第u行第v列的像素点为彩色信号时的三通道值。然后,根据HMAX视觉模型计算相邻两像素点处于同一深度的概率,该HMAX视觉模型计算相邻两像素点处于同一深度的概率包括如下步骤:a:在SI层对视频图像进行滤波处理;b:在Cl层,综合所述SI层的输出进行滤波和归一化操作;c:在S2层对图像进行滤波处理;d:在C2层,综合所述S2层的输出并进行滤波和归一化操作。其中,在步骤a中,对Θ =0,Θ = Ji /4, Θ = ji /2, Θ =3 Ji /4四个方向在两个角度Φ=0和 φ =- Ji /2 这 8 种组合分别用公式 f I ο,φ=θχρ (-(xcos Θ +ysin Θ ) 2+(-xsin Θ +ycos θ )2/10) XcosO (xcos θ+ysin θ )/2+Φ)定义的矩形窗和原图像矩阵I进行二维卷积运算I*fl e, Φ,得到8个矩阵SI $,该矩形窗fI 的大小为5*5,中心点的坐标为(0,O)。在本实施方式中,X、y为矩形窗形成的滤波窗口的坐标。在步骤b中,分别对步骤a中四个方向的两个角度的8个矩阵SUj进行平方加权组合,公式为 gl 0=sqrt (SI 0,Q+S10,_π/2)然后,用公式 f2=g2 (exp (-(x~2+y~2)/10)/10_exP (- (x~2+y~2) /5) /5)定义的矩形窗和矩阵gl θ分别进行二维卷积运算gl e *f2,滤波后得到4个矩阵Cle,其中当x>0时,g2 (X) =x;当X≤O时,g2 (x)=0,f2选取大小为15*15,中心点的坐标为(O, O) ο在步骤c中,分别对Θ =0,Θ =ji/4, Θ =ji/2, θ =3 Ji/4四个方向在两个角度φ =- ji /4, Φ =-3 π /4 这 8 种组合分别用公式 f3 0,φ=θχρ (-(xcos Θ +ysin θ ) ~2+(_xsin θ +ycos θ ) 2/10) XcosO (xcos θ +ysin θ )/2+Φ)定义的矩形窗和步骤b处理后的图像矩阵Cl θ分别进行二维卷积运算Cl e *f3 e, ,得到8个矩阵S2 e,,矩形窗f3 e, 的大小为5*5,中心点的坐标为(O, O) ο在步骤d中,首先,分别对步骤c中四个方向的两个角度的结果进行平方加权组合,公式为 g3 e =sqrt (S2 θ,0+S2 0,π/2),然后,用公式 f4=g4 (exp (- (x~2+y~2) /10) / 10-exp (-(x~2+y~2)/5)/5)定义的矩形窗和矩阵gle分别进行二维卷积运算g3e*f4进行滤波,得到4个矩阵C20。其中当x>0时,g4 (x) =x;当X ≤ O时,g4 (x)=0,f4选取大小为15*15,中心点的坐标为(O, O) O在步骤d得到的4个矩阵C2e进行归一化操作,将矩阵C2e转化为概率,即取值范围限定在(0,I)之间,每一个矩阵C20有1!* 个像素,将矩阵C20从大到小排列,取0.大的像素值PO,对每一个元素按如下公式计算:Pe (X,y) = (C2e (x, y)/P0)~2,其中,I彡X彡h, I彡y彡w,h为图像像素点的行数,w为图像像素点的列数,如果P0 (x, y)>l,取P0 (X,y)=l。在利用HMAX视觉模型计算相邻两像素点处于同一深度的概率后,计算所有像素点的深度值的方法为:首先,计算第一列和第一行中像素点的深度值;然后,计算除第一列和第一行以外各行和各列的像素点的深度值。计算第一列和第一行中像素点的深度值的方法为:设左上角像素点的深度为0,即d印th(l,1)=0 ;第一列的像素点的深度值为:depth (kl, I) =depth (kl_l, I) + λ I (kl, I) -1 (kl_l, I) |,第一行的像素点的深度值为:depth (I, k2) =depth (I, k2~l) + λ 11 (1,k2)-1 (1,k2_l) |,其中,I < kl彡h, I < k2彡w, h为图像像素点的行数,w为图像像素点的列数,I(x, y)表示第X行第y列的灰度值,λ为深度系数,在本实施方式中,深度系数λ的取值为 0.5。在第一行和第一列以外的点(x,y),都有左上点(x-1,y_l),上点(x,y_l),右上点(x+1, y_l),左点(x-1,y),计算除第一列和第一行以外各行和各列的像素点的深度值的方法为:depth (x, y) = (depth (χ-l, y-1) +P本文档来自技高网...

【技术保护点】
一种基于视觉模型的深度提取方法,其特征在于,包括如下步骤:第一步:将视频图像的彩色信号转化为灰度信号;第二步:计算相邻两像素点处于同一深度的概率;第三步:计算所有像素点的深度值;第四步:对计算的所有像素点的深度值进行滤波平滑以及归一化处理。

【技术特征摘要】
1.一种基于视觉模型的深度提取方法,其特征在于,包括如下步骤: 第一步:将视频图像的彩色信号转化为灰度信号; 第二步:计算相邻两像素点处于同一深度的概率; 第三步:计算所有像素点的深度值; 第四步:对计算的所有像素点的深度值进行滤波平滑以及归一化处理。2.按权利要求1所述的基于视觉模型的深度提取方法,其特征在于,将所述视频图像的彩色信号转化为灰度信号的方法为:将视频图像的每一个像素点的灰度信号取为Ku,v) = (R(u, V) +G(u, V) +B(u, v))/3,其中,R、G、B为视频图像第u行第v列的像素点为彩色信号时的三通道值。3.按权利要求1所述的基于视觉模型的深度提取方法,其特征在于,根据HMAX视觉模型计算相邻两像素点处于同一深度的概率,所述HMAX视觉模型计算相邻两像素点处于同一深度的概率包括如下步骤: a:在SI层对视频图像进行滤波处理; b:在Cl层,综合所述SI层的输出进行滤波和归一化操作; c:在S2层对图像进行滤波处理; d:在C2层,综合所述S2层的输出并进行滤波和归一化操作。4.按权利要求3所述的基于视觉模型的深度提取方法,其特征在于,在所述步骤a中,对视频图像进行滤波处理的 方法为:对Θ =0,Θ = Ji /4,Θ =Ji /2,Θ =3 Ji /4四个方向在两个角度 Φ=0 和 Φ=-π/2 分别用公式 0,φ=θχρ(-(χ(3θ8 Θ +ysin Θ ) 2+(-xsin Θ +ycosθ ) ~2/10) XcosO (xcos Θ +ysin θ )/2+Φ)定义的矩形窗和原图像矩阵进行二维卷积运算Ι*Π Θ;Φ,得到8个矩阵SI e,,所述矩形窗fI e的大小为5*5,中心点的坐标为(0,O)。5.按权利要求3或4所述的基于视觉模型的深度提取方法,其特征在于,在所述步骤b中,进行滤波和归一化操作的方法为:首先,分别对步骤a中四个方向的两个角度的结果进行平方加权组合,公式为 gl θ =sqrt (SI θ j0+Sl θ;_π/2),然后,用公式 f2=g2 (exp (- (x~2+y~2) /10)/10-eXp(-(X~2+y~2)/5)/5)定义的矩形窗和矩阵gl e分别进行二维卷积运算gle*f2,滤波后得到4个矩阵Cl e,其中当x>0时,g2(x)=x;当X彡O时,g2 (X)=O, f2选取大小为15*15,中心点的坐标为(O, O) ο6.按权利要求3所述的基于视觉模型的深度提取方法,其特征在于,在所述步骤c中,对图像进行滤波处理的方法为:分别对Θ =0,Θ = Ji /4,Θ =Ji /2,Θ =3 Ji /4四个方向在两个角度 Φ=-π/4, Φ =-3 /4 用公式 f3 0,φ=θχρ (- (xcos Θ +ysin θ ) '2+ (_xsin θ +ycos θ ) 2/10) XcosO (xcos θ +ysin θ )/2+Φ)定义的矩形窗和步骤b处理后的图像矩阵Cl ο分别进行二维卷积运算Cl e *f3 e, ,得到8个矩阵S2 e, ,所述矩形窗f3 e,的大小为5*5,中心点的坐标为(O, O) O7.按权利要求3或6所述的基于视觉模型的深度提取方法,其特征在于,在所述步骤d中,进行滤波的方法为:首先,分别对步骤c中四个方向的两个角度的结果进行平方加权组合,公式为 g3o = sqrt(S2ej0+S2e; π/2),然后,用公式 f4=g4 (exp...

【专利技术属性】
技术研发人员:戴琼海张洋
申请(专利权)人:清华大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1