当前位置: 首页 > 专利查询>山西大学专利>正文

一种基于全聚焦图像代价聚合的深度信息估计方法技术

技术编号:35734829 阅读:20 留言:0更新日期:2022-11-26 18:36
本发明专利技术公开了一种基于全聚焦图像代价聚合的深度信息估计方法。包括以下步骤:首先,采集待估计场景不同焦距的图像序列并创建碟式聚焦度量函数;然后,将图像序列与碟式聚焦度量函数进行卷积操作得到图像序列的聚焦水平后,再根据图像序列聚焦水平求解引导图像;其次,根据引导图像与聚焦水平得到代价聚合后图像序列的聚焦水平;最后将代价聚合后的聚焦水平映射为深度结果与全聚焦图像,经过引导滤波得到场景最终的深度估计结果。本发明专利技术的方法能够有效提升消费类电子设备中场景深度估计的精度。精度。

【技术实现步骤摘要】
一种基于全聚焦图像代价聚合的深度信息估计方法


[0001]本专利技术属于消费类电子设备应用领域,具体涉及一种基于全聚焦图像代价聚合的深度信息估计方法。

技术介绍

[0002]随着消费类电子设备计算能力的大幅提升,许多原本需要在服务器端运行的复杂应用已可在消费类电子设备端运行,如AR、VR等在消费类电子设备端运行的虚拟现实技术,这类技术是否能够大面积推广应用主要依赖场景深度信息估计的准确性。因此,如何通过移动设备成像的方式快速计算场景的深度信息是现阶段深度信息估计领域面临的重要挑战之一。目前,获取场景深度信息的方法有很多类,主流方法是采用主动传感设备,将预设的投影图案投射至场景中,然后采集带有形变的场景图像恢复场景的深度信息。然而,这类方法往往需要昂贵的或专门的设备辅助工作,深度信息的准确性取决于设备本身的精度,除此之外,这类方法容易受到光照的影响而导致深度估计性能的下降。另一类深度信息获取方法是立体视觉,该方法利用多个摄像头建立多目立体视觉系统,通过多个摄像头对同一场景不同位置进行图像采集,然后找到具有一定数量基线的图像像素对来估计场景的深度信本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种基于全聚焦图像代价聚合的深度信息估计方法,包括以下步骤:步骤1,调节手机相机的焦距,采集待估计场景不同焦距的图像序列其中p表示图像数,且其取值范围为1≤p≤P,P为图像总数,i表示图像序列的坐标位置其范围为1≤i≤M
×
M,M为图像序列中单幅图像的宽和高;步骤2,根据式(1)创建碟式聚焦度量函数FM
D
,其中,x,y为图像中像素位置,R1,R2,R3为FM
D
的三个半径参数,π为圆周率;步骤3,将步骤1中的图像序列与步骤2中的碟式聚焦度量函数FM
D
根据式(2)进行卷积操作得图像序列的聚焦水平积操作得图像序列的聚焦水平其中*表示卷积操作符,C
p
(i)表示第p幅图像中位置i的聚焦水平;步骤4,将步骤3得到的图像序列的聚焦水平C
p
(i),1≤i≤M
×
M根据式(3)得到初始深度结果D
Init
(i),1≤i≤M
×
M;其中表示求解图像序列聚焦水平下标p的函数,然后将初始深度结果D
Init
(i),1≤i≤M
×
M按照式(4)映射为引导图像I
Guid
;步骤5,将步骤3中得到的图像序列聚焦水平C
p
(i),1≤i≤M
×
M与步骤4得到的引导图像I
Guid
根据式(5)得到代价聚合后的聚焦水平C

p
(i),1≤i≤M
×
M;其中W

【专利技术属性】
技术研发人员:闫涛尚起慧吴鹏
申请(专利权)人:山西大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1