基于深度图的全息体视图视差图像的虚实融合方法及系统技术方案

技术编号:29135918 阅读:22 留言:0更新日期:2021-07-02 22:31
本发明专利技术提供了一种基于深度图的全息体视图视差图像的虚实融合方法及系统,通过获取真实场景和虚拟场景的视差图像及深度图,对虚拟场景与真实场景对应的深度图像的各个像素点的深度值进行比较,获得带有遮挡关系的真实场景视差图像与带有遮挡关系的虚拟场景视差图像,将其融合后得到保留遮挡关系的融合视差图像。本发明专利技术在视差图像的虚实融合中保留了场景的遮挡关系,增强了真实感,更具有普适性。

【技术实现步骤摘要】
基于深度图的全息体视图视差图像的虚实融合方法及系统
本专利技术涉及全息体视图领域,特别是涉及一种基于深度图的全息体视图视差图像的虚实融合方法及系统。
技术介绍
在生产生活中,在真实场景上附加指定虚拟场景更便于用户对场景信息的理解,能够增加真实感,主要体现在商业、军事及医疗等领域,其中对于多场景信息的融合处理大多数出现在增强现实(AR)领域,在全息体视图打印领域,获取传统视差图像时,通常只针对单一场景进行采样,关于真实场景和虚拟场景进行融合的研究较少,并且没有考虑遮挡关系的影响,在实际生活中应用范围有限。因此,亟需一种保留遮挡关系的视差图像虚实融合获取方法,使其更具普适性。
技术实现思路
本专利技术的目的是提供一种基于深度图的全息体视图视差图像的虚实融合方法及系统,保留了场景遮挡关系,更具有普适性。为实现上述目的,本专利技术提供了如下方案:一种基于深度图的全息体视图视差图像的虚实融合方法,所述基于深度图的全息体视图视差图像的虚实融合方法包括:获取真实场景的视差图像IR(i,j)及深度图DIR(i,j),本文档来自技高网...

【技术保护点】
1.一种基于深度图的全息体视图视差图像的虚实融合方法,其特征在于,所述基于深度图的全息体视图视差图像的虚实融合方法包括:/n获取真实场景的视差图像I

【技术特征摘要】
1.一种基于深度图的全息体视图视差图像的虚实融合方法,其特征在于,所述基于深度图的全息体视图视差图像的虚实融合方法包括:
获取真实场景的视差图像IR(i,j)及深度图DIR(i,j),所述视差图像IR(i,j)由第一目标相机采样得到,i,j表示图像的像素位置索引;
建立虚拟场景,利用虚拟目标相机获取虚拟场景的视差图像IV(i,j)和深度图DIV(i,j);
当Value[DIR(i,j)]>Value[DIV(i,j)]时,令Value[IR(i,j)]=0,Value[IV(i,j)]保持不变;当Value[DIR(i,j)]<Value[DIV(i,j)]时,令Value[IV(i,j)]=0,Value[IR(i,j)]保持不变;当Value[DIR(i,j)]=Value[DIV(i,j)]=0时,令Value[IR(i,j)]=Value[IV(i,j)]=0;
其中,Value[DIR(i,j)]表示真实场景的视差图像的深度图的深度值,Value[DIV(i,j)]表示虚拟场景的视差图像的深度图的深度值,Value[IR(i,j)]表示真实场景视差图像的像素值,Value[IV(i,j)]表示虚拟场景视差图像的像素值;
通过公式IF(i,j)=New_IR(i,j)+New_IV(i,j)得到带有遮挡关系的融合视差图像IF(i,j)。


2.根据权利要求1所述的基于深度图的全息体视图视差图像的虚实融合方法,其特征在于,所述基于深度图的全息体视图视差图像的虚实融合方法还包括:基于所述带有遮挡关系的融合视差图像,进行全息体视图的打印,得到虚实场景融合的三维全息像。


3.根据权利要求1所述的基于深度图的全息体视图视差图像的虚实融合方法,其特征在于,所述真实场景的深度图DIR(i,j)采用立体匹配算法或Kinect传感器得到。


4.根据权利要求1所述的基于深度图的全息体视图视差图像的虚实融合方法,其特征在于,所述虚拟目标相机相机参数与真实场景采样的第一目标相机的各项参数一致。


5.根据权利要求1所述的基于深度图的全息体视图视差图像的虚实融合方法,其特征在于,所述建立虚拟场景采用3dsMax软件建立三维模型。


6.一种基于深度图的全息体视图视差图像的虚实融合系统,...

【专利技术属性】
技术研发人员:闫兴鹏王晨卿刘云鹏蒋晓瑜汪熙荆涛
申请(专利权)人:中国人民解放军陆军装甲兵学院
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1