一种基于卷积神经网络的双波长共相检测方法技术

技术编号:39319638 阅读:12 留言:0更新日期:2023-11-12 16:01
一种基于卷积神经网络的双波长共相误差(piston)的快速检测方法,属于主动光学技术领域,针对目前双波长共相检测技术匹配时间长,效率低下的问题,该方法包括:一、基于双波长共相检测方法,根据圆孔衍射原理,建立双波长圆孔衍射图案数据集;二、构建卷积神经网络并利用建立的数据集训练圆孔衍射图案与子镜piston误差的卷积神经网络模型;三、在拼接镜系统中,采集双波长窄带光谱光源下圆孔衍射图案作为网络模型的输入,利用构建好的卷积神经网络输出子镜的piston误差。本发明专利技术利用卷积神经网络实现了大范围、高效率的双波长平移误差探测,且该方法具有一定的抗噪性。且该方法具有一定的抗噪性。且该方法具有一定的抗噪性。

【技术实现步骤摘要】
一种基于卷积神经网络的双波长共相检测方法


[0001]本专利技术属于主动光学
,设计一种新型的拼接镜共相误差(piston) 检测方法,尤其涉及一种基于卷积神经网络的双波长共相误差的快速检测方法。

技术介绍

[0002]为了获得更清晰地图像,需要增大望远镜的角分辨率,在波长一定的情况下,望远镜角分辨率与其孔径大小成反比。因此,需建造更大口径的望远镜。由于成本和技术等原因,目前单块镜口径极限8米级,而采用拼接型望远镜,使8米级及更大孔径望远镜的建造成为了可能。然而,拼接镜应用也带来新的难题,其中拼接镜各子镜的相对位置的误差,严重影响望远镜最终的成像质量,为了获得与其口径相当的单口径分辨率,必须使拼接镜精确共相。
[0003]为了获得高质量的图像,拼接镜的piston误差必须小于λ/40,目前常见的修正piston误差的主要包括相位差法、曲率传感器法、宽窄带相位算法、四棱锥传感器法、色散条纹传感器法等,但这些方法都无法同时达到大量程、高精度、高能量利用率、较快速度的检测。目前双波长算法虽然能够有效解决2π模糊效应,但其在检测大量程时,运算速度较慢,不能实现拼接镜的快速共相检测的要求。
[0004]为此,本专利技术提出一种利用卷积神经网络的双波长piston误差的快速检测方法,以解决双波长检测速度过慢,达到快速检测拼接镜系统中的piston误差的目的。

技术实现思路

[0005]本专利技术针对目前双波长共相误差检测技术计算复杂、效率低下等的问题,提出了一种基于卷积神经网络的piston误差的快速检测方法。
[0006]本专利技术采用的技术方案:
[0007]基于卷积神经网络的piston误差的快速检测方法。其特征是,包括以下步骤:
[0008]步骤一,基于圆孔的夫琅禾费衍射原理,并通过在拼接子镜间放置圆孔掩膜,根据该圆孔的夫琅禾费衍射信息随piston变化来计算得到子镜的piston误差。通过圆孔衍射理论分析,得到远场光斑衍射图案。
[0009]步骤二,利用双波长共相检测方法,选择合适的两个波长,通过软件仿真得到圆孔衍射图案数据集,同时构建卷积神经网络并利用建立的数据集训练圆孔衍射图案与piston误差的卷积神经网络模型。
[0010]步骤三,卷积神经网络构建完成后,通过在拼接镜系统子镜间放置圆孔掩膜,并采集对应波长下的圆孔衍射图案,作为神经网络的输入。利用步骤二训练好的卷积神经网络模型,直接输出子镜的piston误差。
[0011]进一步的,步骤一具体包括一下步骤:
[0012]得到的圆孔衍射图案光强分布公式如下:
[0013]I(ω,kδ)=f2(ω,kδ)=[f(ρ,0)cos(kδ)+f(ρ,π/2)sin(kδ)]2ꢀꢀꢀꢀꢀ
(1)
[0014]其中,δ为拼接镜piston误差,k=2π/λ,ω为理想单色光在孔径像平面位置向量,ρ为理想单色光在孔径平面的位置向量。
[0015]如图1所示为δ从

λ/4到λ/4变化时得十一张理论衍射图案。
[0016]进一步的,步骤二具体包括一下步骤:
[0017]步骤二采用双波长共相检测方法,其特征在于运用双波长消除2π模糊效应。双波长检测的实际周期为:
[0018][0019]其中,N的取值范围为:
[0020](假设λ1<λ2,N取整数)(3)
[0021]实际检测范围与选取模板间隔关系式为:
[0022][0023]其中,λ1,λ2为波长,Δ为模板间隔。
[0024]进一步的,步骤三具体包括一下步骤:
[0025]所用卷积神经网络为MobileNetV2卷积神经网络,其结构如图4所示。其中t代表的是扩展因子(倒残差结构中第一个1x1卷积的扩展因子),c代表输出特征矩阵的channel,n代表倒残差结构重复的次数,s代表步距。利用深度学习工具tensorflow构建该卷积神经网络。将拼接后的圆孔衍射图案作为训练样本数据,对应的piston误差作为样本标签,进行网络的训练。数据分为两种,分别为训练集和验证集。训练集用于学习网络的权重和偏值;验证集用于评估网络性能,最终完成远场光斑图像和子镜piston误差的卷积神经网络映射模型的构建。
[0026]本专利技术的有益效果是:
[0027]相比于传统的基于类互相关算法的双波长检测,本专利技术通过构建圆孔衍射图案与子镜piston误差的映射关系模型来取代传统的类互相关算法,大大缩短了求解piston误差的计算时间。
附图说明
[0028]图1为本专利技术所述δ从

λ/4到λ/4变化时得十一张理论衍射图案。
[0029]图2为本专利技术所述拼接的圆孔衍射图案。
[0030]图3为本专利技术所选用的卷积神经网络结构。
[0031]图4为本专利技术卷积神经网络仿真结果。
[0032]图5为本专利技术基于卷积神经网络的双波长piston误差的快速检测方法的工作流程图。
具体实施方式
[0033]下面结合附图,给出本专利技术的较佳实例,并予以详细描述。显然,所描述的实例仅是本专利技术一部分实例,而不是全部的实例。基于本专利技术中的实例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实例,都属于本专利技术保护的范围。
[0034]基于卷积神经网络的双波长piston误差的快速检测方法,包括以下步骤:
[0035]第一步,根据双波长共相检测原理选取合适的两个波长。选取λ1=580nm, λ2=650nm,根据式(3)得:N=9,实际检测周期为P=2.6μm,即实际检测范围为
±
1.3μm,根据式(4)可得:当模板间隔的范围为:10nm<Δ<35nm,此时模板的选取范围为:82.9<n<290。本实例取n=83。
[0036]第二步,为了更好地模拟拼接镜共相时的状态,在制作训练集时,引入高斯、椒盐等的噪声。根据圆孔衍射理论产生存在特定误差的83组piston误差训练集。将两个波长产生的圆孔衍射图案拼接在一起,作为一张图片作为卷积神经网络的输入,如图2所示。神经网络的训练集包括有83组piston误差的20000张图像组成。卷积神经网络的验证集包括有83组piston误差的4900张图像组成。验证数据集与训练数据集的生成方式相同,验证集并未参与神经网络的训练。卷积神经网络的训练结果如图4所示。从图中可以看出训练的MobileNetV2在经过100次的迭代训练后,验证集的精度达到了94%以上。
[0037]第三步,在完成卷积神经网络的构建后,采集拼接镜系统中λ1,λ2波长下的圆孔衍射图案,拼接到一起输入到构建好的卷积神经网络,直接得到子镜的 piston误差。基于卷积神经网络的双波长共相误差检测流程,如图5所示。
[0038]本专利技术中的基于卷积神经网络的双波长共相检测方法,在拼接子镜间放置圆孔掩膜,本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.基于卷积神经网络的双波长共相误差(piston)的快速检测方法,其特征是,包括以下步骤:步骤一,基于圆孔的夫琅禾费衍射原理,并通过在拼接子镜间放置圆孔掩膜,根据该圆孔的夫琅禾费衍射信息随piston变化来计算得到子镜的piston误差。通过圆孔衍射理论分析,得到远场光斑衍射图案。得到的圆孔衍射图案光强分布公式如下:I(ω,kδ)=f2(ω,kδ)=[f(ρ,0)cos(kδ)+f(ρ,π/2)sin(kδ)]2ꢀꢀꢀꢀꢀ
(1)其中,δ为拼接镜piston误差,k=2π/λ,ω为理想单色光在孔径像平面位置向量,ρ为理想单色光在孔径平面的位置向量。步骤二,利用双波长共相检测方法,选择合适的两个波长,根据步骤一的圆孔衍射理论,可以仿真得到带有piston误差的圆孔衍射图案,将两个波长对应的piston误差衍射图案进行拼接,就得到了训练网络所用的数据集。其中双波长共相检测的条件如下:双波长检测的实际周期为:其中,N的取值范围为:实际检测范围与选取模板间隔关系式为:其中,λ1,λ2为波长,Δ为模板间隔。步骤三,通过软件仿真得...

【专利技术属性】
技术研发人员:李斌杨阿坤韩昭洋邹吉平欧阳爱国
申请(专利权)人:华东交通大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1