双目视觉立体匹配方法组成比例

技术编号:9434980 阅读:112 留言:0更新日期:2013-12-12 00:56
双目视觉立体匹配方法,首先对视图组中待匹配点进行基于稠密特征描述方法的视差先验估计,而后使用汉明间距方法计算视图组中候选匹配点之间的匹配代价,然后使用基于自适应窗口代价聚集方法求取候选匹配点的代价聚集值,然后再使用基于最大后验概率模型的视差估计方法计算视图组中每个像素点的视差值,最后对立体匹配结果进行求精处理。本发明专利技术可以有效抑制左右视图光照不同或曝光时间不同对立体匹配的影响,获得了较高的立体匹配精度,算法快速、稳定、可靠。

【技术实现步骤摘要】
【专利摘要】,首先对视图组中待匹配点进行基于稠密特征描述方法的视差先验估计,而后使用汉明间距方法计算视图组中候选匹配点之间的匹配代价,然后使用基于自适应窗口代价聚集方法求取候选匹配点的代价聚集值,然后再使用基于最大后验概率模型的视差估计方法计算视图组中每个像素点的视差值,最后对立体匹配结果进行求精处理。本专利技术可以有效抑制左右视图光照不同或曝光时间不同对立体匹配的影响,获得了较高的立体匹配精度,算法快速、稳定、可靠。【专利说明】所属
本专利技术涉及一种双目视觉数字图像的处理方法,特别是。
技术介绍
立体匹配是由二维图像信息获得三维物体信息的主要技术手段,在三维场景重构、自动驾驶、虚拟现实等许多双目视觉应用中,立体匹配一直是一个极具挑战性的核心问题。立体匹配一般假设匹配像素之间具有相似的亮度或者颜色信息,并基于这些信息进行视差估计。然而,实际应用场景中由于左右视图存在辐射变化导致这种假设并不成立。光照变化和摄像机的曝光时间变化是影响立体匹配主要的辐射变化因素,大多数立体匹配方法面临这些变化时其表现都会明显下降。调试好的立体匹配方法只能在输入图像辐射不变的条件下使用,否则会产生很大的匹配误差。目前立体匹配方法主要分为局部匹配方法和全局匹配方法两种。局部匹配方法通过固定尺寸窗口进行代价聚集,运算速度快,但在低纹理和深度不连续区域匹配效果差;全局匹配方法虽然能够通过构建复杂的能量函数模型得到高精度的匹配结果,但计算速度慢,并且对计算机的内存需求较大。此外,上述两种方法大都没有考虑左右视图辐射变化这一因素,其理想的匹配效果获取的前提条件是参与匹配的左右视图是在同一条件下得到的,即左右视图的辐射变化一致。然而,双目视觉在实际应用中经常会面临光照变化或者摄像机曝光时间变化等辐射因素带来的挑战,上述两种立体匹配方法的性能往往会随着辐射变化的增强而急剧下降,导致双目视觉无法正常使用。
技术实现思路
本专利技术的技术解决问题:为了解决现有立体匹配方法对左右视图的光照变化或曝光时间变化敏感、匹配精度低、运算速度慢等缺点,本专利技术提供一种,用于在左右视图辐射变化较大、图像成像质量较差的情况下采用。该方法不仅匹配速度快、对左右视图辐射变化鲁棒,而且可以获得较好的匹配精度和抗噪声能力。`本专利技术的技术方案是:,其特征在于:首先对视图组中待匹配点进行基于稠密特征描述方法的视差先验估计,而后使用汉明间距方法计算视图组中候选匹配点之间的匹配代价,然后使用基于自适应窗口代价聚集方法求取候选匹配点的代价聚集值,然后再使用基于最大后验概率模型的视差估计方法计算视图组中每个像素点的视差值,最后对立体匹配结果进行求精处理。上述的基于稠密特征描述方法的视差先验估计实现步骤:首先对视图组中的左右视图进行Canny边缘检测和固定步长网格抽样,得到一组抽样待匹配点。而后对左右视图分别进行Census变换和DAISY特征描述,并基于特征描述对得到的抽样待匹配点进行特征匹配,获得一组鲁棒匹配点的视差。最后根据这些鲁棒点的视差对视差空间进行三角化,得到待匹配点的视差先验估计值。上述的自适应窗口代价聚集方法实现步骤:首先设置初始代价聚集窗口的尺寸,而后求取聚集窗口内像素的灰度均值,然后根据灰度均值计算聚集窗口内每个像素点的二值权重,最后根据权重设计自适应代价聚集函数,并求取候选匹配点之间的代价聚集值。上述的基于最大后验概率模型的视差估计方法实现步骤:首先将视差的求解表示为求解最大条件概率的形式,而后将条件概率分解为先验概率与释然概率之积,并建立各自的函数模型,然后根据求解的条件概率函数模型构建视差能量函数,最后通过最小化能量函数求解视图组中每个像素点的视差值。本专利技术主要有两大创新:(I)为提高匹配效率并实现对辐射变化鲁棒,本专利技术将DAISY和Census变换结合计算一组鲁棒匹配点的视差,通过对视差空间三角化为剩余待匹配点的视差估计提供先验信息;(2)为同时在深度不连续区域和低纹理区域获得正确的视差估计,本专利技术提出一种简单高效的基于Census变换的自适应窗口代价聚集方法。本专利技术与现有技术相比的优点在于:本专利技术可以有效抑制左右视图光照不同或曝光时间不同对立体匹配的影响,获得了较高的立体匹配精度,算法快速、稳定、可靠。【专利附图】【附图说明】图1为本专利技术的流程图;图2为视图组I中的左视图;图3为视图组I中的右视图1 ;图4为视图组I中的右视图2 ;图5为视图组I的理想立体匹配结果;图6为现有技术中的视图组I中的左视图与右视图1立体匹配结果;图7为现有技术中的视图组I中的左视图与右视图2立体匹配结果;图8为本专利技术中的视图组I中的左视图Canny边缘检测结果;图9为本专利技术中的视图组I中的左视图Census变换结果;图10为本专利技术中的视图组I中的鲁棒匹配点检测结果;图11为本专利技术中的视图组I中的左视图与右视图1立体匹配结果;图12为本专利技术中的视图组I中的左视图与右视图2立体匹配结果;图13为视图组2中的左视图;图14为视图组2中的右视图1 ;图15为视图组2中的右视图2 ;图16为视图组2的真实视差图;图17为现有技术中的视图组2中的左视图与右视图1立体匹配结果;图18为本专利技术中视图组2中的左视图与右视图1立体匹配结果;图19为现有技术中的视图2中的左视图与右视图2立体匹配结果;图20为本专利技术中视图组2中的左视图与右视图2立体匹配结果。【具体实施方式】如图1所示,本专利技术的方法过程是,首先对视图组中待匹配点进行基于稠密特征描述方法的视差先验估计,而后使用基于汉明间距方法计算视图组中候选匹配点之间的匹配代价,然后使用基于自适应窗口代价聚集方法求取候选匹配点的代价聚集值,然后再使用基于最大后验概率模型的视差估计方法计算视图组中每个像素点的视差值,最后对立体匹配结果进行求精处理。图2和图3分别为视图组I中的左视图和右视图1,这两幅视图的拍摄条件相同。图4是视图组I中的右视图2,该视图与右视图1相比,只有光照差异,其他完全一致。从图中可以看出,场景中的同一个物体在图2和图3中的亮度基本一致,而在图4中亮度明显偏闻。图5是视图组I中的左视图与右视图1 (或右视图2)立体匹配的理想结果。从图中可以看出,越靠近摄像机的物体,在图中的亮度越高,反之越低。通过亮度能够有效探知场景中物体的实际深度,这是双目立体视觉最为重要的功能。图6是现有技术中的视图组I中的左视图与右视图1立体匹配结果。将该图与图5进行对比可以看出,当左视图与右视图的光照条件一致时,现有技术能够计算出的立体匹配结果与理想匹配结果接近,结果比较令人满意。图7为现有技术中的视图组I中的左视图与右视图2立体匹配结果。将该图与图5进行对比可以看出,一旦左视图与右视图的光照条件不一致,现有技术计算出的立体匹配结果与理想匹配结果相差较大,一些局部区域的匹配误差过大,难以满足双目视觉的应用要求。本专利技术主要分为视差先验估计、匹配代价计算、代价聚集、视差估计和视差求精五部分,并将视图组中的左右视图分别称为参考图像和目标图像。本专利技术假设参考图像与目标图像经过了立体校正,即消除了图像畸变并实现了行对准。视差先验估计是指在参考图像中找到一组能够鲁棒匹配点,并根据这些点的视差构建分段线性视差平面,为剩余点的匹配提供一个先验估计值。图8是视图本文档来自技高网
...

【技术保护点】
双目视觉立体匹配方法,其特征在于:首先对视图组中待匹配点进行基于稠密特征描述方法的视差先验估计,而后使用汉明间距方法计算视图组中候选匹配点之间的匹配代价,然后使用基于自适应窗口代价聚集方法求取候选匹配点的代价聚集值,然后再使用基于最大后验概率模型的视差估计方法计算视图组中每个像素点的视差值,最后对立体匹配结果进行求精处理。

【技术特征摘要】

【专利技术属性】
技术研发人员:屈玉福姜吉祥姜楠杨民
申请(专利权)人:北京航空航天大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1