一种用于线谱估计的多测量向量深度原子范数去噪网络及其构建方法技术

技术编号:37309976 阅读:13 留言:0更新日期:2023-04-21 22:53
一种用于线谱估计的多测量向量深度原子范数去噪网络及其构建方法,涉及信号处理领域。解决现有线谱估计存在估计精度低、迭代次数多导致收敛速度慢的问题。去噪网络的构建方法为:选取T、W和Λ为辅助变量;采用辅助变量对噪声测量值进行分析获得学习变量值,进而建立重构层;重构层对噪声测量值进行去噪,得到去噪结果,并采用分段线性映射函数和映射网格,建立噪声估计层;根据分段线性映射函数和辅助变量矩阵,建立辅助层;采用S个重构层、噪声估计层和辅助层,获得去噪网络。采用基于梯度的反向传播方法对搭建的去噪网络进行训练完成可学习参数的最优选择。本发明专利技术适用于雷达探测、传感器阵列信号处理、医疗成像和通信信道估计的线谱估计。估计的线谱估计。估计的线谱估计。

【技术实现步骤摘要】
一种用于线谱估计的多测量向量深度原子范数去噪网络及其构建方法


[0001]本专利技术涉及信号处理领域。

技术介绍

[0002]线谱估计是指从少量噪声样本中估计多个叠加复指数信号的频率,是信号处理的一个基本问题。线谱估计问题出现在各种应用领域中,包括雷达探测、传感器阵列信号处理、医疗成像和通信信道估计。
[0003]现有子空间方法可以用来从测量数据中估计信号频率。但是受到噪声的影响,其估计精度严重下降。原子范数软阈值是一种无网格的压缩感知方法,可以用来对测量数据去噪。该方法虽然具有很好的理论保证,但是其实际算法迭代次数多,收敛时间长,而且其去噪性能依赖于超参数的仔细选择,精确度差,容易出现问题。
[0004]因此,综上所述,现有线谱估计存在估计精度低、迭代次数多导致收敛速度慢的问题。

技术实现思路

[0005]本专利技术解决现有线谱估计存在估计精度低、迭代次数多导致收敛速度慢的问题。
[0006]为实现上述目的,本专利技术提供了如下方案:
[0007]本专利技术提供一种深度原子范数去噪网络的构建方法,所述构建方法为:
[0008]S1、选取T、W和Λ为辅助变量,定义辅助变量T、W和Λ的矩阵为厄米特矩阵,并且令
[0009]S2、采集噪声测量值M,采用所述辅助变量矩阵对所述噪声测量值M进行分析,获得学习变量值;
[0010]S3、根据所述辅助变量矩阵、噪声测量值M和学习变量值,建立重构层Y;
[0011]S4、采用所述重构层Y对所述噪声测量值M进行去噪,得到去噪结果;
[0012]S5、根据所述去噪结果并采用分段线性映射函数和映射网格,建立噪声估计层N;
[0013]S6、根据所述分段线性映射函数和所述辅助变量矩阵,建立辅助层;
[0014]S7、根据所述重构层、噪声估计层和辅助层,得到执行阶段层;
[0015]S8、采用S个所述执行阶段层,获得去噪网络,
[0016]S9、采用基于梯度的反向传播方法对搭建的深度原子范数去噪网络进行训练以完成可学习参数的最优选择,
[0017]S10、采用ESPRIT方法从去噪结果中估计信号频率。
[0018]进一步,还有一种优选实施例,上述重构层Y的表达式为:
[0019][0020]其中,和是可学习的变量。
[0021]进一步,还有一种优选实施例,上述噪声估计层N的表达式为:
[0022][0023]其中,为噪声水平,P为测量向量的个数,为映射网格,是学习参数。
[0024]进一步,还有一种优选实施例,上述辅助层包括辅助层W、辅助层U、辅助层Λ和辅助层T;
[0025]所述辅助层W的表达式为:
[0026][0027]所述辅助层U的表达式为:
[0028][0029]辅助层Λ的表达式为:
[0030][0031]辅助层T的表达式为:
[0032][0033]T
t+1
=U
t
diag({λ
t
}
+
)(U
t
)
*

[0034]其中,和为学习参数,为拓普利兹投影的逆算子,ED(
·
)为特征值分解,diag({λ
t
}
+
)为大于0的特征值构成对角矩阵,U
t
为特征分解产生的特征向量组成的矩阵。
[0035]本专利技术提供一种用于线谱估计的深度原子范数去噪方法,所述去噪方法采用上述任意一项所述的一种深度原子范数去噪网络实现,所述去噪方法为:
[0036]A1、采取多组测量数据,得到测量向量;
[0037]A2、根据P个所述测量向量,且每个测量向量由K个频率成分组成,得到复指数信号x
p
(t);
[0038]A3、对所述复指数信号以采样率f
s
进行采样,得到离散采样值;
[0039]A4、根据所述离散采样值,得到无噪声测量数据X;
[0040]A5、将所述无噪声测量数据X结合高斯白噪声矩阵,得到噪声测量数据;
[0041]A6、将所述噪声测量数据采用自相关矩阵方法进行估计,得到噪声粗略估计值N0;
[0042]A7、对所述去噪网络进行初始赋值,并采用损失函数对所述去噪网络进行训练,得到最优的去噪网络;
[0043]A8、分别将所述噪声测量数据和噪声粗略估计值N0输入到所述最优的去噪网络中,得到去噪结果Y
out
和噪声水平估计值σ
out

[0044]A9、采用ESPRIT方法对所述去噪结果Y
out
和噪声水平估计值σ
out
进行估计,得到信号频率。
[0045]进一步,还有一种优选实施例,上述复指数信号为:
[0046][0047]其中,P为测量向量的索引数量,P=1,2,
……
,f
k
为第k个频率成分的信号,a
p,k
为第P个测量向量的第K个频率成分的复数幅值。
[0048]进一步,还有一种优选实施例,上述离散采样值表示为:
[0049][0050]其中,n为采样值的索引,j为虚数单位。
[0051]本专利技术提供一种深度原子范数去噪网络系统,所述系统包括:
[0052]用于选取T、W和Λ为辅助变量,定义辅助变量T、W和Λ的矩阵为厄米特矩阵,并且令的存储装置;
[0053]用于采集噪声测量值M,采用所述辅助变量矩阵对所述噪声测量值M进行分析,获得学习变量值的存储装置;
[0054]用于根据所述辅助变量矩阵、噪声测量值M和学习变量值,建立重构层Y的存储装置;
[0055]用于采用所述重构层Y对所述噪声测量值M进行去噪,得到去噪结果的存储装置;
[0056]用于根据所述去噪结果并采用分段线性映射函数和映射网格,建立噪声估计层N的存储装置;
[0057]用于根据所述分段线性映射函数和所述辅助变量矩阵,建立辅助层的存储装置;
[0058]用于根据所述重构层、噪声估计层和辅助层,得到执行阶段层的存储装置;
[0059]用于采用S个所述执行阶段层,获得去噪网络的存储装置。
[0060]本专利技术提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述任意一项所述的一种深度原子范数去噪网络实现或上述任意一项所述的一种用于线谱估计的深度原子范数去噪方法。
[0061]本专利技术提供一种计算机设备,该设备包括存储器和处理器,所述存储器中存储有计算机程序,当所述处理器运行所述存储器存储的计算机程序时,所述处理器执行上述任意一项所述的一种深度原子范数去噪网络实现或上述任意一项所述的一种用于线谱估计的深度原子范数去噪方法。
[0062]本专利技术的有益效果为:
[00本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种深度原子范数去噪网络的构建方法,其特征在于,所述构建方法为:S1、选取T、W和Λ为辅助变量,定义辅助变量T、W和Λ的矩阵为厄米特矩阵,并且令S2、采集噪声测量值M,采用所述辅助变量矩阵对所述噪声测量值M进行分析,获得学习变量值;S3、根据所述辅助变量矩阵、噪声测量值M和学习变量值,建立重构层Y;S4、采用所述重构层Y对所述噪声测量值M进行去噪,得到去噪结果;S5、根据所述去噪结果并采用分段线性映射函数和映射网格,建立噪声估计层N;S6、根据所述分段线性映射函数和所述辅助变量矩阵,建立辅助层;S7、根据所述重构层、噪声估计层和辅助层,得到执行阶段层;S8、采用S个所述执行阶段层,获得去噪网络。2.根据权利要求1所述的一种深度原子范数去噪网络的构建方法,其特征在于,所述重构层Y的表达式为:其中,和是可学习的变量。3.根据权利要求1所述的一种深度原子范数去噪网络的构建方法,其特征在于,所述噪声估计层N的表达式为:其中,为噪声水平,P为测量向量个数,为映射网格,是学习参数。4.根据权利要求1所述的一种深度原子范数去噪网络的构建方法,其特征在于,所述辅助层包括辅助层W、辅助层U、辅助层Λ和辅助层T;所述辅助层W的表达式为:所述辅助层U的表达式为:辅助层Λ的表达式为:辅助层T的表达式为:T
t+1
=U
t
diag({λ
t
}
+
)(U
t
)
*
;其中,和为学习参数,为拓普利兹投影的逆算子,ED(
·
)为特征值分解,diag({λ
t
}
+
)为大于0的特征值构成对角矩阵,U
t
为特征分解产生的特征向量组成的矩阵。
5.一种用于线谱估计的深度原子范数去噪方法,其特征在于,所述去噪方法采用权利要求1

4任意一项所述的一种深度原子范数去噪网络实现,所述去噪方法为:A1、采取多组测量数据,得到测量向量;A2、根据P个所述测量向量,且每个测量向量由K个频率成分组成,得到复指数信号x
p
(t);A3、对所述复指数信号以采样率f
s
进行采样,得到离散采样值;A4、根据所述离散采样值,得到无噪声测量数据X;A5、将所述无噪声测量数据X结合高斯白噪声矩阵,得到噪声测量数据;A6、将所述噪声测量数据采用自相关矩阵方法进行估计,得到噪声...

【专利技术属性】
技术研发人员:付宁尉志良姜思仪乔立岩刘冠男吴萱白宇
申请(专利权)人:北京宇航系统工程研究所
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1