当前位置: 首页 > 专利查询>南京大学专利>正文

一种利用视频序列帧间相关性的深度图像计算方法技术

技术编号:15823676 阅读:28 留言:0更新日期:2017-07-15 05:35
本发明专利技术公开一种利用视频序列帧间相关性的深度图像计算方法,包括:步骤1、对左右视点相机拍摄的图片进行校正;步骤2、对于第一帧的左右图片的点p,在最大视差搜索范围计算匹配代价,进行视差优化、视差细化,得到初始视差值d1;第一帧的视差梯度为g1;步骤3、对于下一帧的p点的计算,当p点不是异常点或边缘点,以上一帧p点的视差值为基准设定视差搜索范围,否则以最大视差搜索范围计算匹配代价,进行视差优化、视差细化,并得到当前帧的视差值及视差梯度,实现实时的立体匹配。本发明专利技术利用视频序列中上一帧的视差,大幅缩小了当前帧算法的计算量,能够在保证原有算法匹配精度的条件下,减小耗时,提高在实际应用场景中的效率。

【技术实现步骤摘要】
一种利用视频序列帧间相关性的深度图像计算方法
本专利技术涉及计算机立体视觉领域,更具体的,涉及一种利用视频序列帧间相关性的深度图像计算方法。
技术介绍
立体视觉是近年来计算机视觉领域中最广泛的研究课题之一。它是从同一场景不同视点拍摄的图片中获得场景深度信息的技术。获得从不同视点的两个相机拍摄的图片,针对这两幅图片计算场景中的点在两幅图片上的对应点的水平位移,这个过程就被称为双目立体匹配,水平位移就被称为视差。立体视觉在许多领域中被广泛使用,例如障碍物检测,驾驶辅助,三维重建和运动检测等。随着消费电子的发展,立体视觉应用的场景越来越广泛。如图1所示,一般来说,大多数立体匹配算法可以概括为四个步骤:(1)匹配代价计算(2)代价聚合(3)视差优化/计算(4)视差细化(后处理)而具体步骤的实施细节取决于算法本身。根据步骤1、2、3的不同,大多数算法分为两种主要类型,局部算法和全局算法。局部算法主要基于窗口进行代价聚合(步骤2),对于一个给定的点,视差优化(步骤3)中计算得到的能量值仅仅取决于一个限定窗口内的所有点的像素值。局部算法通常能很清晰地分成步骤1、2、3。例如,传统的平方差求和算法(sum-of-squared-differences),它的计算步骤如下:(1)匹配代价是在给定某个视差下,计算左边视点的图和右边视点的图中对应的两个点的平方差。(2)代价聚合就是对限定窗口内所有点的匹配代价求和。(3)视差优化则是对每个点挑选出聚合代价最小的视差值。除此之外,经典的局部算法还有绝对值求和算法(sum-of-absolute-differences):匹配代价是计算对应点的绝对值;自适应权重算法(adaptive-support-window):即在代价聚合过程中根据窗口内的点与中心点的颜色、距离赋予不同权重,再将其代价相加;归一化互相关算法(NormalizedCrossCorrelation):计算图像间的互相关值。Census变换:将窗口内像素灰度大小的相对值转化成比特数,然后比较左右对应点的比特数的汉明距离。局部算法具有高速度和低能耗,但是局部算法得到的匹配精度有限,较难满足复杂场景的需求。与局部算法相比,全局算法有更好的匹配精度。全局算法对于平滑项作出了假设,并将立体匹配问题变成了一个能量优化问题。大部分全局算法跳过了代价聚合(步骤2),考虑匹配代价和平滑项,针对全局的点提出了能量函数,然后最小化能量函数,获得视差。而对能量函数最小化的优化算法主要有图割(graphcuts),置信度传播(BeliefPropagation)等。但是相比于局部算法,全局算法的计算量更大,能耗更高。在实际应用中,特别是对于移动设备而言,如何平衡立体匹配算法的速度和精度就是研究重点之一,也就是如何在有限的资源内实现的精度较高的实时匹配算法。在众多算法之中,半全局匹配(Semi-GlobalMatch)就是在平衡了匹配精度和运算时间后表现较好的一种算法,得到了广泛的使用。半全局匹配算法提出了一个全局的能量函数,与全局算法对全局的点进行优化不同,它将每个点的能量函数分为8or16个方向的路径,只需要对每条路径求值,然后将所有路径的值相加就是该点的能量,而对于单一路径的求值可以采用动态规划求解。随着硬件的发展,越来越多的硬件平台(GPU、FPGA等)被利用来实现立体匹配,特别是半全局匹配,以达到实时运行的目的。然而,目前的算法大多只针对静态的单帧图像进行处理,并不考虑视频序列下的立体匹配。目前并没有相关的工作研究,而实现精确的实时立体匹配对于移动平台来说代价仍然昂贵。
技术实现思路
针对上述现有技术中的问题,本专利技术公开了一种利用视频序列帧间相关性的深度图像计算方法,减少立体匹配的计算时量,整体或部分地解决一个或多个上述问题或缺点。本专利技术是通过如下技术方案实现的,本专利技术包括以下步骤:步骤1、左右视点相机对同一场景进行拍摄,对拍摄的图片进行校正,获得校正后的左右不同视点的相同尺寸视频序列帧。步骤2、对于第一帧的左右图片的点p,在最大视差搜索范围内计算匹配代价,根据p点的视差搜索范围及代价值进行视差优化,根据p点的视差搜索范围及视差优化中得到的p点的能量值进行视差细化;得到初始视差值d1;第一帧的视差梯度为g1。步骤3、进行下一帧的计算,对于p点:当p点不是异常点或边缘点,以上一帧p点的视差值为基准设定视差搜索范围,计算匹配代价;否则,以最大视差搜索范围计算匹配代价;根据p点的视差搜索范围及代价值进行视差优化,根据p点的视差搜索范围及视差优化中得到的p点的能量值进行视差细化;得到当前帧的视差值及视差梯度;步骤4、得到视频序列深度图像,实现实时的立体匹配。进一步的,保留计算过程中的各个点的能量值,并且记录该点的搜索范围为后续步骤视差优化和视差细化做准备。步骤2进一步包括如下技术特征:令视差搜索范围为(0,D),其中D为视差搜索最大值;对于第一帧的左右图片,采取半全局匹配算法计算初始视差值,并保留计算过程中的各个点的能量值Energy[0]~Energy[D-1];其中采用census变换计算匹配代价cost[0]~cost[D-1],对于能量函数在8个方向上进行累计优化,针对优化得到的原始视差图进行视差细化。进一步的,视差细化(后处理)过程包括:亚像素求精,奇异值检测,合理化视差等手段。步骤3进一步包括如下技术特征:进行下一帧第i+1帧的计算,当计算点p的代价值时,查找到上一帧第i帧p点的视差值di,第i+1帧的点p的视差搜索范围以di为基准,从(0,D)缩减到(di-range,di+range),range为设定的搜索范围。设定阈值t1,t2,求取上一帧第i帧视差的梯度图Gi,分别判断两个条件:(1)代价计算过程中,在(di-range,di+range)内计算的代价值最小值min(cost)>t1;(2)点p在Gi中的梯度gi>t2;满足条件(1)的点为异常点,满足条件(2)的点为边缘点,只要满足其中之一,则扩大当前的搜索范围为(0,D),返回继续计算未计算的代价值,并且记录该点的搜索范围为后续步骤视差优化和视差细化做准备。进一步的,当进行第i+1帧的计算时,对于视差搜索范围之内的点,计算对应于该点范围内的能量值;对于视差搜索范围之外的点,直接继承第i帧该点该范围外的能量值。进一步的,在视差细化过程中,只对步骤3中确定的视差搜索范围进行视差的细化,确定最优视差;在点p视差搜索范围内寻找令能量函数最小的视差值,该视差即为点p的视差。本专利技术具有以下有益效果:1、实时应用中,由上一帧图像所得到的视差保留至当前帧。通过检索上一帧视差的信息,缩小当前帧视差的搜索范围,具体表现在匹配代价计算,视差优化以及细化方面。该算法在保证原有算法匹配精度的条件下,提高了整个算法在实际应用场景中的效率。2、对误差增大的边缘点、异常点,对应的扩大视差搜索范围,减少可能引起的误差。3、本专利技术的计算方法中保留计算过程中的各个点的能量值、各个点的视差搜索范围为后续步骤视差优化和视差细化做准备,利用视频序列帧间相关性减少了大量的计算量。因此本专利技术的整个过程能大幅减少立体匹配的计算时间,同时保障了算法的精度,在实时平台上具有极大应用前景。附图说明本文档来自技高网
...
一种利用视频序列帧间相关性的深度图像计算方法

【技术保护点】
一种利用视频序列帧间相关性的深度图像计算方法,其特征在于,包括以下步骤:步骤1、左右视点相机对同一场景进行拍摄,对拍摄的图片进行校正,获得校正后的左右不同视点的相同尺寸视频序列帧;步骤2、对于第一帧的左右图片的点p,在最大视差搜索范围,计算匹配代价,根据p点的视差搜索范围及代价值进行视差优化,根据p点的视差搜索范围及视差优化中得到的p点的能量值进行视差细化;得到初始视差值d1;第一帧的视差梯度为g1;步骤3、进行下一帧的计算,对于p点:当p点不是异常点或边缘点,以上一帧p点的视差值为基准设定视差搜索范围,计算匹配代价;否则,以最大视差搜索范围计算匹配代价;根据p点的视差搜索范围及代价值进行视差优化,根据p点的视差搜索范围及视差优化中得到的p点的能量值进行视差细化,得到当前帧的视差值及视差梯度;步骤4、得到视频序列深度图像。

【技术特征摘要】
1.一种利用视频序列帧间相关性的深度图像计算方法,其特征在于,包括以下步骤:步骤1、左右视点相机对同一场景进行拍摄,对拍摄的图片进行校正,获得校正后的左右不同视点的相同尺寸视频序列帧;步骤2、对于第一帧的左右图片的点p,在最大视差搜索范围,计算匹配代价,根据p点的视差搜索范围及代价值进行视差优化,根据p点的视差搜索范围及视差优化中得到的p点的能量值进行视差细化;得到初始视差值d1;第一帧的视差梯度为g1;步骤3、进行下一帧的计算,对于p点:当p点不是异常点或边缘点,以上一帧p点的视差值为基准设定视差搜索范围,计算匹配代价;否则,以最大视差搜索范围计算匹配代价;根据p点的视差搜索范围及代价值进行视差优化,根据p点的视差搜索范围及视差优化中得到的p点的能量值进行视差细化,得到当前帧的视差值及视差梯度;步骤4、得到视频序列深度图像。2.根据权利要求1所述的利用视频序列帧间相关性的深度图像计算方法,其特征在于:保留计算过程中的各个点的能量值;记录各个点的视差搜索范围为后续步骤视差优化和视差细化做准备。3.根据权利要求1所述的利用视频序列帧间相关性的深度图像计算方法,其特征在于,步骤2进一步包括如下技术特征:令视差搜索范围为(0,D),其中D为视差搜索最大值;对于第一帧的左右图片,采用census变换计算匹配代价cost[0]~cost[D-1],视差优化中对于能量函数在8个方向上进行累计优化,得到能量值Energy[0]~Energy[D-1],针对优化得到的原始视差图进行视差细...

【专利技术属性】
技术研发人员:李杨都思丹石立郭新年彭成磊董晨陈叶朦杨帆陆胜李明陈旭东
申请(专利权)人:南京大学
类型:发明
国别省市:江苏,32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1