【技术实现步骤摘要】
基于深度学习视差预测的合成孔径聚焦成像方法
[0001]本专利技术属于计算机视觉与图像处理
,涉及合成孔径成像聚焦方法。
技术介绍
[0002]合成孔径成像聚焦技术是计算机视觉与图形图像处理领域用于模拟人类视觉系统感知外界信息,能有效去除遮挡物并聚焦到被遮挡目标的一种方法。已有的深度学习的合成孔径聚焦方法,在训练时用于判断合成孔径图像聚焦可能性的卷积神经网络后,将该卷积神经网络用于计算场景中预设定深度范围下的每张合成孔径图像聚焦的可能性,从而选择出最优的聚焦平面并实现感兴趣目标的自动聚焦。但该方法中,为了将场景中所有可能的目标都考虑在内,深度范围的上限须足够大。在不遗漏场景重要目标的条件下,使得合成孔径成像的次数显著增加,从而导致实现该个方法的时间延长,成本显著增加。
技术实现思路
[0003]本专利技术所要解决的技术问题在于克服上述现有技术的缺陷,提供一种合成孔径成像的次数较少、运算速度快、计算时间短、成本低的基于深度学习视差预测的合成孔径聚焦成像方法。
[0004]解决上述技术问题所采用的技术方案是由下述步骤组成:
[0005](1)获取相机参数
[0006]将黑白方格相间的棋盘格标定板放于场景中的不同深度,使用阵列相机依次采集位于不同深度的标定板图像,其中阵列相机的子相机个数为N,N取值为有限的正整数,采集同一场景不同方向的图像集,提取图像集中特征点所对应的世界坐标和像素坐标,用阵列相机标定方法对相机进行标定,得到相机参数H
r,i
,其中r表示参考 ...
【技术保护点】
【技术特征摘要】
1.一种基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于由下述步骤组成:(1)获取相机参数将黑白方格相间的棋盘格标定板放于场景中的不同深度,使用阵列相机依次采集位于不同深度的标定板图像,其中阵列相机的子相机个数为N,N取值为有限的正整数,采集同一场景不同方向的图像集,提取图像集中特征点所对应的世界坐标和像素坐标,用阵列相机标定方法对相机进行标定,得到相机参数H
r,i
,其中r表示参考图像,i表示除参考图像外的其它图像;(2)预测场景视差图采用视差生成神经网络预测场景视差图;视差生成神经网络由块匹配模块、体内特征聚合模块、体间特征聚合模块依次串联构成,视差生成神经网络的构建方法如下:1)构建块匹配网络用多目立体视觉方法将参考图像与位于平面扫描体中的每个视差平面上的图像相匹配构建成块匹配网络;2)构建体内特征聚合模块体内特征聚合模块由编码器、注意力模块、解码器组成,编码器与解码器通过注意力模块连接构成;3)构建体间特征聚合网络体间特征聚合网络由两个卷积核为3、步长为1的卷积层串联构成;4)生成场景视差图按下式确定场景视差图F:其中,P表示视差概率体,Y表示深度域;(3)确定待聚焦目标的深度随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式得聚类结果图I
C
:I
C
=Clu(F)其中C是参数、为有限的正整数,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式确定待聚焦目标的深度L:其中,D
o
为参考目标o的视差,L
o
为参考目标的深度,D为待聚焦目标的视差;(4)生成聚焦在深度L的合成孔径图像按下式将相机阵列采集的第i张图像I
i
投影到参考相机视角下,得到投影图像I
r,i
:I
r,i
=H
r,i
×
I
i
其中,I
i
表示第i张图像,H
r,i
表示第i张其它图像到参考图像r的单应性矩阵;按下式确定投影图像I
r,i
平移的视差ΔD:
其中ΔX表示相机阵列中各相机的位置关系,以待聚焦目标的深度为聚焦深度,L
t
表示参考平面t所在深度,L
t
取值为有限的正整数;将投影图像I
r,i
变换在深度L处,按下式确定聚焦在深度L的合成孔径图...
【专利技术属性】
技术研发人员:裴炤,苟元帅,张艳宁,王淼,马苗,唐明,
申请(专利权)人:陕西师范大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。