卷积神经网络平移误差探测方法技术

技术编号:30406016 阅读:17 留言:0更新日期:2021-10-20 11:10
本发明专利技术公开了一种卷积神经网络平移误差探测方法,该方法的实现步骤主要包括:1、初始图像采集;2、建立训练集;3、建立神经网络;4、训练神经网络;5、平移误差探测;本发明专利技术的方法引入多个波长通道,利用各个波长通道内LSR值的循环周期不同来构成LSR特征向量,随后使用神经网络对LSR特征向量进行识别,完成对平移误差的探测。在此过程中,本发明专利技术还利用一个波长内数据来构建大训练数据集,该训练数据集的建立解决了传统神经网络方法探测平移误差时的大范围训练集难以获取的问题。最终,本发明专利技术实现了大范围、高精度的平移误差探测,且该方法具有强的抗噪性。具有强的抗噪性。具有强的抗噪性。

【技术实现步骤摘要】
卷积神经网络平移误差探测方法


[0001]本专利技术涉及一种平移误差探测方法,具体涉及一种卷积神经网络平移误差探测方法。

技术介绍

[0002]近年来,随着天文观测的分辨率要求越来越高,对望远镜口径的要求也达到了10m级。而单一口径望远镜随着口径的增大,对制造工艺要求急剧增加,且造价很高。因此,自上世纪七十年代开始,科研人员突破单一孔径望远镜系统的设计理念,提出使用合成孔径技术来满足大口径天文望远镜的需求,以保证在有效减小制造成本和对工艺水平的要求下,保证系统的成像质量。然而,合成孔径望远镜在轨展开后各个子镜间存在倾斜误差(Tilt)和平移误差(Piston),这会使得成像质量大大下降。其中,倾斜误差通过精共焦、精共相阶段可以得到很好的矫正,而平移误差往往会超出一般精共相方法的探测范围,需添加必要的粗共相阶段作为过渡。
[0003]基于此,国内外的科研人员提出了众多用于粗、精共相阶段的方法。如,用于粗共相阶段的宽带法、基于色散条纹传感器(Dispersed fringe sensor,DFS)的一系列方法,及用于精共相阶段的窄带法、相位差法(Phase diversity,PD)、四棱锥检测法(Pyramid)、干涉法等。但这些方法由于检测精度和范围的原因,往往需要联合使用,因此需要不同的装置来检测矫正平移误差,如通过色散条纹传感器完成粗共相探测后再使用PD法进行精共相探测,不能完成进行大范围、高精度的探测。
[0004]2017年,光电所李杨提出一种基于色散条纹图像累加的左峰减右峰法(DFA
>‑
LSR),此方法将色散条纹图像沿着色散方向累加,用累加后信号的左峰值与右峰值之差与平移误差之间的线性关系进行探测。由于对整个色散条纹进行累加,导致带宽很大,相干长度很小,故该方法的精度虽然高,但检测范围却只能达到一个波长。

技术实现思路

[0005]针对
技术介绍
中提到的现有的DFA

LSR方法存在检测范围只能达到一个波长的问题,本专利技术提出了一种卷积神经网络平移误差探测方法。
[0006]本专利技术的具体技术方案是:
[0007]提供了一种卷积神经网络平移误差探测方法,包括以下实施步骤:
[0008]步骤1:初始图像采集:
[0009]步骤1.1:设定平移误差间隔Δ;多个波长通道的选定与平移误差的间隔Δ相关:当有n个波长通道时,每个波长通道与平移误差的间隔Δ之间需满足λ
i
=M
i
Δ,其中1<i≤n,M
i
为整数;
[0010]步骤1.2:在任意波长通道λ
i
内,通过以平移误差间隔Δ调节平移误差进行成像,在λ
i
通道内,采集N
i
=λ
i
/Δ+1张图像;调节范围为:当N
i
为奇数时[

λ
i
/2,λ
i
/2],当N
i
为偶数时[


i
+Δ)/2,(λ
i

Δ)/2];
[0011]步骤2:建立训练集;
[0012]步骤2.1:按照DFA

LSR的叠加原理将每个波长通道图像进行累加,从而获得每个波长通道的一个波长内的平移误差对应的LSR值序列,作为原始数据集;
[0013]步骤2.2:根据原始数据集,分别建立对应于正、负平移误差范围的训练集;
[0014]步骤2.3:将正平移误差范围的训练集和负平移误差范围的训练集首尾相接,并在两个训练集之间加入平移误差为零时对应的LSR值,从而构成训练集;
[0015]步骤3:建立神经网络;
[0016]建立神经网络包括Net1和Net2;
[0017]Net1网络结构包括一个输入层、一个隐含层和一个输出层,其隐含层仅有三个节点;Net1用于拟合单个通道的一个波长内的平移误差值与相应LSR值的关系,其输入为单个通道一个波长内的平移误差对应的LSR值,形式为输出为LSR值对应的平移误差值;
[0018]Net2网络结构采用Resnet18网络的一部分,共有11层,输入为n
×1×
1的LSR特征向量,输出为LSR特征向量对应的平移误差区间;其中,Net2的输出层的相邻节点间的间隔为Net1选定的波长通道的一个波长距离,即λ
i

[0019]步骤4:训练神经网络;
[0020]步骤4.1:Net1的训练过程
[0021]将任意单个通道一个波长内平移误差对应的LSR值输入至Net1中得到一个波长内平移误差与LSR值的对应关系;
[0022]步骤4.2:Net2的训练过程
[0023]将步骤2获得的训练集输入至Net2中,得到LSR特征向量与平移误差区间的对应关系;
[0024]步骤5:平移误差探测
[0025]步骤5.1:在成像系统中设定平移误差值后,进行多通道成像,得到n个通道图像;通过DFA

LSR方法获得每个通道图像的LSR值,组成n
×
1的多通道LSR特征向量,记为
[0026]步骤5.2:
[0027]将Net1训练时采用通道的LSR值输入Net1,得到结果O1;同时向Net2输入步骤4.1中获得的特征向量得到结果O2;
[0028]最终获得平移误差为:
[0029]piston_detected=O2*λ
i
+O1。
[0030]进一步地,上述步骤2.2的具体实施过程为:
[0031]A:建立正平移误差范围的训练集;
[0032]A1:当任意通道λ
i
中LSR值序列的序列长度为奇数时,去掉LSR值序列中第一个LSR值,然后将剩余LSR值序列的前半序列整体移动至后半序列之后组成新的LSR值序列;
[0033]A2:当任意通道λ
i
中LSR值序列的序列长度为偶数时,去掉LSR值序列中第一个LSR值,然后将剩余LSR值序列的中位数及中位数之前的序列值作为前半序列整体移动至后半序列之后组成新的LSR值序列;
[0034]A3:将步骤A1或步骤A2获得的新的LSR值序列正向循环排列;
[0035]A4:对所有通道执行步骤A1

A3,从而获得正平移误差范围的训练集;
[0036]B:建立负平移误差范围的训练集;
[0037]B1:当任意通道中LSR值序列的序列长度为奇数时,去掉LSR值序列中最后一个LSR值,然后将剩余LSR值序列的后半序列整体移动至前半序列之前组成新的LSR值序列;
[0038]B2:当任意通道中LSR值序列的序列长度为偶数时,去掉LSR值序列中第一个LSR值,然后将剩余LSR值序列的中位数及中位数之后的序列值作为后半序列整体移动至前半序列之前组本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种卷积神经网络平移误差探测方法,其特征在于,包括以下步骤:步骤1:初始图像采集:步骤1.1:设定平移误差间隔Δ;多个波长通道的选定与平移误差的间隔Δ相关:当有n个波长通道时,每个波长通道与平移误差的间隔Δ之间需满足λ
i
=M
i
Δ,其中1<i≤n,M
i
为整数;步骤1.2:在任意波长通道λ
i
内,通过以平移误差间隔Δ调节平移误差进行成像,在λ
i
通道内,采集N
i
=λ
i
/Δ+1张图像;调节范围为:当N
i
为奇数时[

λ
i
/2,λ
i
/2],当N
i
为偶数时[


i
+Δ)/2,(λ
i

Δ)/2];步骤2:建立训练集;步骤2.1:按照DFA

LSR的叠加原理将每个波长通道图像进行累加,从而获得每个波长通道的一个波长内的平移误差对应的LSR值序列,作为原始数据集;步骤2.2:根据原始数据集,分别建立对应于正、负平移误差范围的训练集;步骤2.3:将正平移误差范围的训练集和负平移误差范围的训练集首尾相接,并在两个训练集之间加入平移误差为零时对应的LSR值,从而构成训练集;步骤3:建立神经网络;建立神经网络包括Net1和Net2;Net1网络结构包括一个输入层、一个隐含层和一个输出层,其隐含层仅有三个节点;Net1用于拟合单个通道的一个波长内的平移误差值与相应LSR值的关系,其输入为单个通道一个波长内的平移误差对应的LSR值,形式为输出为LSR值对应的平移误差值;Net2网络结构采用Resnet18网络的一部分,共有11层,输入为n
×1×
1的LSR特征向量,输出为LSR特征向量对应的平移误差区间;其中,Net2的输出层的相邻节点间的间隔为Net1选定的波长通道的一个波长距离,即λ
i
;步骤4:训练神经网络;步骤4.1:Net1的训练过程将任意单个通道一个波长内平移误差对应的LSR值输入至Net1中得到一个波长内平移误差与LSR值的对应关系;步骤4.2:Net2的训练过程将步骤2获得的训练集输入至Net2中,得到LSR特征向量与平移误差区间的对应关系;步骤5:平移误差探测步骤5.1:在成像系统中设定平移误差值后,进行多通道成像,得到n个通道图像;通过DFA

LSR方法获得每个通道图像的LSR值,组成n
×
1的多通道LSR特征向量,记...

【专利技术属性】
技术研发人员:王鹏飞赵惠解晓蓬李创樊学武
申请(专利权)人:中国科学院西安光学精密机械研究所
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1