当前位置: 首页 > 专利查询>清华大学专利>正文

可配置多场景模型的深度估计方法及使用该方法的系统技术方案

技术编号:7839807 阅读:242 留言:0更新日期:2012-10-12 07:23
本发明专利技术提出了一种可配置多场景模型的深度估计方法及使用该方法的系统,该深度估计方法的步骤为:输入图像像素数据并进行亮度计算得到初始亮度值;对初始亮度值的范围进行选择并进行截断处理得到截断亮度值;求取初始深度;求得最终深度估计值。该深度估计系统包括输入变量接口,存储模块,计算模块和输出变量接口。本发明专利技术的深度估计方法不仅能够提高深度估计的质量与场景的契合度,提升深度图效果,改善边缘效果,同时转化过程无需人工参与。本发明专利技术的深度估计系统处理速度快,实时输出深度数据,平台兼容性强,能够满足高质量平面视频立体转换的需求,使平面视频能够快速实时转化为具有场景辨识度的立体视频。

【技术实现步骤摘要】

本专利技术涉及计算机视觉
,特别涉及一种可配置多场景模型的深度估计方法及使用该方法的系统
技术介绍
立体视频通过让观看者左右眼看到具有视差的图像而产生立体感,营造了更加逼真的视觉观赏体验,让观看者产生真实的临场感。正因为立体视频丰富的视频信息以及这种前所未有的观看体验,在各领域都有着广阔的发展前景,尤其在消费电子市场,立体电影及电视作品将成为未来广播电视的潜在发展方向。 目前,在立体视频产业中,主要通过双目或者多目采集以及单目图像转换两种方式进行立体视频制作。在第一种方法中,双目或者多目采集的图像为视频制作源,通过后期处理生成所需要的立体视频对应视角的图像,有时还会进行建模等精细化处理,这种立体视频制作对设备要求,后期人工参与成本以及时间成本都较高。在第二种方法中,单目图像转换方式则以平面图像作为视频处理源,通过处理直接生成所需要的具有视差的图像,从而使观看者产生立体观影感,这种方法可以实现对大量平面视频的立体转换,成本低,转换速度快,能够解决立体视频片源匮乏的现状。但是,目前的单目图像转换存在处理效果单一,边缘效果不协调,实时性差,兼容性不足,转换质量较差的问题,无法满足本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种可配置多场景模型的深度估计方法,其特征在于,包括如下步骤 Si:输入图像像素数据,对输入的所述图像像素数据进行亮度计算,得到初始亮度值; 52:对所述初始亮度值的范围进行选择并进行截断处理,得到截断亮度值; 53:根据场景设置,运用预设的场景模板以及所述截断亮度值,求取初始深度;54:运用边缘处理模板,对图像边缘所述初始深度进行更新,求得最终深度估计值。2.如权利要求I所述的可配置多场景模型的深度估计方法,其特征在于,在所述步骤SI中,对所述图像像素数据进行亮度计算的公式为br=(l/2) (B-G)+ (1/2) (B-R), 其中,br为所述每个像素的亮度值,R、G、B分别为图像像素数据的三刺激值。3.如权利要求I所述的可配置多场景模型的深度估计方法,其特征在于,在所述步骤S2中,所述截断亮度计算公式为min_br=min(d, max(_d, br)) +d+1, 其中,min_br为所述每个像素的截断亮度值,d为亮度截断阈值。4.如权利要求I所述的可配置多场景模型的深度估计方法,其特征在于,在所述步骤S3中,预设的场景模板为抛物线型场景模板、折线型场景模板和离散点集型场景模板之一。5.如权利要求4所述的可配置多场景模型的深度估计方法,其特征在于,所述抛物线型场景模板的公式为Fl (x) =ts*x*(w-l-x)/(w*w)-ts, 其中,x为当前像素点的列号,w为图像宽度,ts为深度度量系数。6.如权利要求4所述的可配置多场景模型的深度估计方法,其特征在于,所述折线型场景模板的公式为F2 (X) =ts+m*x ;当 0〈x〈w/2 时,F2 (X) =ts+m*w_m*x,当 w/2 < x<w 时, 其中,X为当前像素点的列号,w为图像宽度,ts为深度度量系数,m为深度增长系数。7.如权利要求4所述的可配置多场景模型的深度估计方法,其特征在于,所述离散点集型场景模板的公式为F3 (X) =tsn, 其中,n为正整数,w为图像宽度,tsn为离散数列tsl, ts2,…,tsn。8.如权利要求1、4、5、6、7之一所述的可配置多场景模型的深度估计方法,其特征在于,所述初始深度计算公式为dataDepth=mi...

【专利技术属性】
技术研发人员:戴琼海张晶季向阳
申请(专利权)人:清华大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1