The embodiment of the invention discloses a device and a depth image synthesis method, and relates to the technical field of image processing, including: the true depth camera to synthetic depth image, the Y axis of all real depth camera in the camera coordinate system are parallel to each other; according to the pixel previously obtained the mapping relation between the calculated for each pixel some synthetic depth images in the virtual camera depth corresponding to the camera coordinates of pixel mapping, camera parameters of the camera is determined according to the depth of the virtual camera parameters of each real depth camera, X axis virtual depth camera in the camera coordinate system and the true depth of the camera lens optical center line parallel according to the pixel mapping; the calculated target depth, synthetic image generation various corresponding depth image synthesis. By applying the scheme provided by the embodiment of the invention, a depth image with a large field of view can be synthesized.
【技术实现步骤摘要】
一种深度图像合成方法及装置
本专利技术涉及图像处理
,特别涉及一种深度图像合成方法及装置。
技术介绍
由于深度相机具有所拍摄的图像能够为用户提供丰富的拍摄物与拍摄物之间的位置信息的特点,使得深度相机在机器视觉领域受到越来越广泛的关注,例如,应用于视频监控领域、应用于体感游戏领域等等。实际应用中,深度相机不管是应用于视频监控领域,还是应用于体感游戏领域,均会涉及到目标人物的定位、识别、跟踪等方面,这些方面往往在大视场范围内能够得到较佳的效果。然而,对于现有的单个深度相机拍摄的深度图像而言,其视场范围一般较小,很难满足实际应用的要求,因此,有必要提供一种用于根据多个深度相机拍摄的深度图像合成一幅具有大视场的深度图像的方法。
技术实现思路
本专利技术实施例公开了一种深度图像合成方法,以能够根据多个深度相机拍摄的深度图像合成一幅具有大视场的深度图像。为达到上述目的,本专利技术实施例公开了一种深度图像合成方法,所述方法包括:获得各个真实深度相机拍摄的待合成深度图像,其中,各个真实深度相机在拍摄待合成深度图像时的位置关系为:各个真实深度相机对应相机坐标系的y轴相互平行;根据 ...
【技术保护点】
一种深度图像合成方法,其特征在于,所述方法包括:获得各个真实深度相机拍摄的待合成深度图像,其中,各个真实深度相机在拍摄待合成深度图像时的位置关系为:各个真实深度相机对应相机坐标系的y轴相互平行;根据预先获得的像素点映射关系,计算各个待合成深度图像中每一像素点在虚拟深度相机对应的相机坐标系中的映射像素点,其中,所述虚拟深度相机的相机参数为根据各个真实深度相机的相机参数确定的,所述虚拟深度相机的镜头光心位于各个真实深度相机的镜头光心连线上,所述虚拟深度相机对应相机坐标系的x轴与各个真实深度相机的镜头光心连线平行,所述预先获得的像素点映射关系为:预先根据各个真实深度相机的相机参数 ...
【技术特征摘要】
1.一种深度图像合成方法,其特征在于,所述方法包括:获得各个真实深度相机拍摄的待合成深度图像,其中,各个真实深度相机在拍摄待合成深度图像时的位置关系为:各个真实深度相机对应相机坐标系的y轴相互平行;根据预先获得的像素点映射关系,计算各个待合成深度图像中每一像素点在虚拟深度相机对应的相机坐标系中的映射像素点,其中,所述虚拟深度相机的相机参数为根据各个真实深度相机的相机参数确定的,所述虚拟深度相机的镜头光心位于各个真实深度相机的镜头光心连线上,所述虚拟深度相机对应相机坐标系的x轴与各个真实深度相机的镜头光心连线平行,所述预先获得的像素点映射关系为:预先根据各个真实深度相机的相机参数与所述虚拟深度相机的相机参数之间的几何关系获得的每个真实深度相机对应相机坐标系中的像素点与所述虚拟深度相机对应相机坐标系中的像素点之间的映射关系;根据计算得到的映射像素点,生成各个待合成深度图像对应的目标合成深度图像。2.根据权利要求1所述的方法,其特征在于,通过以下方式预先获得像素点映射关系:获得虚拟深度相机的镜头光心位置和所述虚拟深度相机的焦距;根据所述虚拟深度相机的镜头光心位置和各个真实深度相机的镜头光心位置,计算各个真实深度相机相与所述虚拟深度相机之间的距离、各个真实深度相机成像面分别与所述虚拟深度相机成像面之间的夹角;根据各个真实深度相机的镜头光心与所述虚拟深度相机的镜头光心之间的相对位置关系、所述虚拟深度相机的焦距、各个真实深度相机的焦距以及计算得到的距离、夹角,利用几何关系获得每个真实深度相机对应的相机坐标系中的像素点与所述虚拟深度相机对应相机坐标系中的像素点之间的映射关系。3.根据权利要求2所述的方法,其特征在于,各个待合成深度图像中每一个像素点的信息至少包括绝对距离深度分量;所述根据各个真实深度相机的镜头光心与所述虚拟深度相机的镜头光心之间的相对位置关系、所述虚拟深度相机的焦距、各个真实深度相机的焦距以及计算得到的距离、夹角,利用几何关系获得每个真实深度相机对应的相机坐标系中的像素点与所述虚拟深度相机对应相机坐标系中的像素点之间的映射关系,包括:在真实深度相机的镜头光心位于所述虚拟深度相机的镜头光心的左侧的情况下,根据所述虚拟深度相机的焦距、各个真实深度相机的焦距以及计算得到的距离、夹角,利用几何关系获得的该真实深度相机对应的相机坐标系中的像素点与所述虚拟深度相机对应相机坐标系中的像素点之间的映射关系为:其中,x1、y1表示真实深度相机对应的相机坐标系中像素点的横坐标和纵坐标,x2、y2表示真实深度相机对应的相机坐标系中坐标为(x1,y1)的像素点在所述虚拟深度相机对应的相机坐标系中的映射像素点的横坐标和纵坐标,d1表示真实深度相机对应的相机坐标系中坐标为(x1,y1)的像素点的绝对距离深度分量值,d2表示所述虚拟深度相机对应的相机坐标系中坐标为(x2,y2)的像素点的绝对距离深度分量值,B表示真实深度相机的镜头光心与所述虚拟深度相机的镜头光心之间的距离,f1表示真实深度相机的焦距,f2表示所述虚拟深度相机的焦距,θ表示真实深度相机成像面与所述虚拟深度相机成像面之间的夹角;在真实深度相机的镜头光心位于所述虚拟深度相机的镜头光心的右侧的情况下,根据所述虚拟深度相机的焦距、各个真实深度相机的焦距以及计算得到的距离、夹角,利用几何关系获得的该真实深度相机对应的相机坐标系中的像素点与所述虚拟深度相机对应相机坐标系中的像素点之间的映射关系为:其中,在真实深度相机的镜头光心与所述虚拟深度相机的镜头光心重合的情况下,真实深度相机的镜头光心与所述虚拟深度相机的镜头光心之间的距离为0,根据所述虚拟深度相机的焦距、各个真实深度相机的焦距以及计算得到的距离、夹角,利用几何关系获得的该真实深度相机对应的相机坐标系中的像素点与所述虚拟深度相机对应相机坐标系中的像素点之间的映射关系为:其中,4.根据权利要求1-3中任一项所述的方法,其特征在于,所述根据计算得到的映射像素点,生成各个待合成深度图像对应的目标合成深度图像,包括:获得计算得到的映射像素点中位于所述虚拟深度相机的视场范围内的像素点,其中,所述虚拟深度相机的视场范围为根据所述虚拟深度相机的镜头光心位置以及各个真实深度相机的视场范围确定的;根据所获得的像素点生成各个待合成深度图像对应的目标合成深度图像。5.根据权利要求4所述的方法,其特征在于,各个待合成深度图像中每一个像素点的信息还包括置信度分量;所述根据所获得的像素点生成各个待合成深度图像对应的目标合成深度图像,包括:按照保留映射至所述虚拟深度相机对应的相机坐标系中同一点的各个像素点中置信度最大的像素点的规则,对所获得的像素点中进行像素点保留处理;根据经像素点保留处理后的像素点生成各个待合成深度图像对应的目标合成深度图像。6...
【专利技术属性】
技术研发人员:浦世亮,王靖雄,毛慧,沈林杰,俞海,
申请(专利权)人:杭州海康威视数字技术股份有限公司,
类型:发明
国别省市:浙江,33
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。