基于深度学习视差预测的合成孔径聚焦成像方法技术

技术编号:33201561 阅读:15 留言:0更新日期:2022-04-24 00:39
一种基于深度学习视差预测的合成孔径聚焦成像方法,由获取相机参数、预测场景视差图、确定待聚焦目标的深度、生成聚焦在深度L的合成孔径图像步骤组成。本发明专利技术以相机阵列采集的一组图像为输入,采用视差估计方法估计出这一组输入图像中参考图像的视差图,用聚类方法自动识别所在的区域并使用形态学处理,对聚类后的图像进行优化,根据视差与深度的关系得到感兴趣目标所在的深度,采用合成孔径成像的方法,快速地聚焦到目标;在获取感兴趣目标的三维信息,快速地聚焦目标,提高了运算速度、缩短了计算时间、降低了合成孔径聚焦的成本。本发明专利技术具有成像次数少、运算速度快、计算时间短、成本低等优点,可在合成孔径成像中推广应用。可在合成孔径成像中推广应用。可在合成孔径成像中推广应用。

【技术实现步骤摘要】
基于深度学习视差预测的合成孔径聚焦成像方法


[0001]本专利技术属于计算机视觉与图像处理
,涉及合成孔径成像聚焦方法。

技术介绍

[0002]合成孔径成像聚焦技术是计算机视觉与图形图像处理领域用于模拟人类视觉系统感知外界信息,能有效去除遮挡物并聚焦到被遮挡目标的一种方法。已有的深度学习的合成孔径聚焦方法,在训练时用于判断合成孔径图像聚焦可能性的卷积神经网络后,将该卷积神经网络用于计算场景中预设定深度范围下的每张合成孔径图像聚焦的可能性,从而选择出最优的聚焦平面并实现感兴趣目标的自动聚焦。但该方法中,为了将场景中所有可能的目标都考虑在内,深度范围的上限须足够大。在不遗漏场景重要目标的条件下,使得合成孔径成像的次数显著增加,从而导致实现该个方法的时间延长,成本显著增加。

技术实现思路

[0003]本专利技术所要解决的技术问题在于克服上述现有技术的缺陷,提供一种合成孔径成像的次数较少、运算速度快、计算时间短、成本低的基于深度学习视差预测的合成孔径聚焦成像方法。
[0004]解决上述技术问题所采用的技术方案是由下述步骤组成:
[0005](1)获取相机参数
[0006]将黑白方格相间的棋盘格标定板放于场景中的不同深度,使用阵列相机依次采集位于不同深度的标定板图像,其中阵列相机的子相机个数为N,N取值为有限的正整数,采集同一场景不同方向的图像集,提取图像集中特征点所对应的世界坐标和像素坐标,用阵列相机标定方法对相机进行标定,得到相机参数H
r,i
,其中r表示参考图像,i表示除参考图像外的其它图像。
[0007](2)预测场景视差图
[0008]采用视差生成神经网络预测场景视差图。
[0009]视差生成神经网络由块匹配模块、体内特征聚合模块、体间特征聚合模块依次串联构成,视差生成神经网络的构建方法如下:
[0010]1)构建块匹配网络
[0011]用多目立体视觉方法将参考图像与位于平面扫描体中的每个视差平面上的图像相匹配构建成块匹配网络。
[0012]2)构建体内特征聚合模块
[0013]体内特征聚合模块由编码器、注意力模块、解码器组成,编码器与解码器通过注意力模块连接构成。
[0014]3)构建体间特征聚合网络
[0015]体间特征聚合网络由两个卷积核为3、步长为1的卷积层串联构成。
[0016]4)生成场景视差图
[0017]按下式确定场景视差图F:
[0018][0019]其中,P表示视差概率体,Y表示深度域。
[0020](3)确定待聚焦目标的深度
[0021]随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式得聚类结果图I
C

[0022]I
C
=Clu(F)
[0023]其中C是参数、为有限的正整数,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式确定待聚焦目标的深度L:
[0024][0025]其中,D
o
为参考目标o的视差,L
o
为参考目标的深度,D为待聚焦目标的视差。
[0026](4)生成聚焦在深度L的合成孔径图像
[0027]按下式将相机阵列采集的第i张图像I
i
投影到参考相机视角下,得到投影图像I
r,i

[0028]I
r,i
=H
r,i
×
I
i
[0029]其中,I
i
表示第i张图像,H
r,i
表示第i张其它图像到参考图像r的单应性矩阵。
[0030]按下式确定投影图像I
r,i
平移的视差ΔD:
[0031][0032]其中ΔX表示相机阵列中各相机的位置关系,以待聚焦目标的深度为聚焦深度,L
t
表示参考平面t所在深度,L
t
取值为有限的正整数。
[0033]将投影图像I
r,i
变换在深度L处,按下式确定聚焦在深度L的合成孔径图像S
L

[0034][0035]式中E是单位矩阵,θ表示零向量,N取值为有限的正整数。
[0036]完成基于深度学习视差预测的快速合成孔径聚焦成像方法。
[0037]在本专利技术的(2)预测场景视差图的2)构建体内特征聚合模块步骤中,所述的编码器由第一级、第二级、

、第六级编码子模块串联构成,每一级编码子模块由两层编码卷积层串联构成,编码器每级输出如下式所示:
[0038][0039]其中,conv()表示编码卷积层。
[0040]本专利技术的编码子模块为:第一级编码子模块的两层编码卷积层的卷积核k为5,步长s为1;第二级编码子模块的两层编码卷积层的卷积核k均为5,步长s分别为2、1;其它级编码子模块的两层编码卷积层的卷积核k为3,步长s分别为2、1。
[0041]在在本专利技术的(2)预测场景视差图的2)构建体内特征聚合模块步骤中,所述的解码器由5级解码子模块串联构成,第一级解码子模块的输入通过注意力网络与第五级编码子模块的输出相连,第二级解码子模块的输入通过注意力网络与第四级编码子模块的输出相连,第三级解码子模块的输入通过注意力网络与第三级编码子模块的输出相连、通过上
下文提取模块与VGG网络的输出相连,第四级解码子模块的输入通过注意力网络与第二级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连,第五级解码子模块的输入通过注意力网络与第一级编码子模块的输出相连、通过上下文提取模块与VGG网络的输出相连;第二级、第三级、第四级解码子模块的输出分别通过解码卷积层与第三级、第四级、第五级解码子模块的输入相连;每一级解码子模块的输出如下式所示:
[0042][0043]其中,U()、U'()表示上采样,C()表示包含了四级池化的上下文特征提取,A()表示注意力。
[0044]本专利技术的解码子模块由两层解码卷积层串联构成,每层解码卷积层的卷积核大小为3,步长s为1。
[0045]在本专利技术的(3)确定待聚焦目标的深度中,随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式确定聚类结果图I
C

[0046]I
C
=Clu(F)
[0047]其中F表示视差图,C是参数、C取值为2~10,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式得到待聚焦目标的深度L:
[0048][0049]本专利技术以相机阵列采集的一组图像为输入,采用视差估计方法估计出输入图像中参考图像的视差图,用聚类方法自动识别出感兴趣目标所在的区域并使用形态学处理,对聚类后的图像进行优化,根据本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于深度学习视差预测的合成孔径聚焦成像方法,其特征在于由下述步骤组成:(1)获取相机参数将黑白方格相间的棋盘格标定板放于场景中的不同深度,使用阵列相机依次采集位于不同深度的标定板图像,其中阵列相机的子相机个数为N,N取值为有限的正整数,采集同一场景不同方向的图像集,提取图像集中特征点所对应的世界坐标和像素坐标,用阵列相机标定方法对相机进行标定,得到相机参数H
r,i
,其中r表示参考图像,i表示除参考图像外的其它图像;(2)预测场景视差图采用视差生成神经网络预测场景视差图;视差生成神经网络由块匹配模块、体内特征聚合模块、体间特征聚合模块依次串联构成,视差生成神经网络的构建方法如下:1)构建块匹配网络用多目立体视觉方法将参考图像与位于平面扫描体中的每个视差平面上的图像相匹配构建成块匹配网络;2)构建体内特征聚合模块体内特征聚合模块由编码器、注意力模块、解码器组成,编码器与解码器通过注意力模块连接构成;3)构建体间特征聚合网络体间特征聚合网络由两个卷积核为3、步长为1的卷积层串联构成;4)生成场景视差图按下式确定场景视差图F:其中,P表示视差概率体,Y表示深度域;(3)确定待聚焦目标的深度随机指定阵列相机中一个相机为参考相机,将阵列相机采集一组图像通过多目立体视觉的深度学习方法得到场景视差图,按下式得聚类结果图I
C
:I
C
=Clu(F)其中C是参数、为有限的正整数,用膨胀方法、腐蚀形态学方法去除聚类结果图中的噪声,平均目标区域的像素,按下式确定待聚焦目标的深度L:其中,D
o
为参考目标o的视差,L
o
为参考目标的深度,D为待聚焦目标的视差;(4)生成聚焦在深度L的合成孔径图像按下式将相机阵列采集的第i张图像I
i
投影到参考相机视角下,得到投影图像I
r,i
:I
r,i
=H
r,i
×
I
i
其中,I
i
表示第i张图像,H
r,i
表示第i张其它图像到参考图像r的单应性矩阵;按下式确定投影图像I
r,i
平移的视差ΔD:
其中ΔX表示相机阵列中各相机的位置关系,以待聚焦目标的深度为聚焦深度,L
t
表示参考平面t所在深度,L
t
取值为有限的正整数;将投影图像I
r,i
变换在深度L处,按下式确定聚焦在深度L的合成孔径图...

【专利技术属性】
技术研发人员:裴炤苟元帅张艳宁王淼马苗唐明
申请(专利权)人:陕西师范大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1