本申请公开了一种基于深度学习的合成孔径雷达图像的识别方法,该方法包括:获取合成孔径雷达图像,将预处理后的图像按比例分为训练集和测试集;构建骨干网络模型,将带有真实值标签的训练集数据输入骨干网络模型中,获得骨干网络模型中输出的特征图并计算第一损失函数;构建可分性测度网络模型,计算骨干网络模型中输出的特征图的可分性测度值,根据可分性测度值计算第二损失函数;计算得到综合损失函数,基于该函数对骨干网络模型进行迭代训练,得到训练好的骨干网络模型;将测试集输入到训练好的骨干网络模型中,得到合成孔径雷达图像的类型识别结果。本发明专利技术增强了骨干网络模型识别过程的可解释性。能够显著提升模型的识别效率和准确率。别效率和准确率。别效率和准确率。
【技术实现步骤摘要】
一种基于深度学习的合成孔径雷达图像的识别方法
[0001]本申请涉及雷达目标识别
,更具体地,涉及一种基于深度学习的合成孔径雷达图像的识别方法。
技术介绍
[0002]合成孔径雷达由于其可全天时、全天候工作的特性,且由于其图像包含丰富的目标特征信息等原因,是雷达自动目标识别领域重要的数据来源,雷达目标识别技术在态势综合感知和情报收集监控等领域具有重要的理论和应用价值。
[0003]近年来随着深度学习技术的日益普及,基于深度学习的雷达目标识别技术已经在各个领域取得了广泛的应用。然而传统的深度学习技术的学习过程是一个“黑盒子”,研究者并不能给出学习过程十分严格的数学推理过程,因此深度学习模型输出结果的可信度存在疑问,深度学习的应用遭遇了可解释性差的发展瓶颈。
技术实现思路
[0004]针对现有技术的至少一个缺陷或改进需求,本专利技术提供了一种基于深度学习的合成孔径雷达图像的识别方法,增强了骨干网络模型识别过程的可解释性。能够显著提升模型的识别效率和准确率。
[0005]为实现上述目的,按照本专利技术的第一个方面,提供了一种基于深度学习的合成孔径雷达图像的识别方法,其特征在于,包括以下步骤:
[0006]获取合成孔径雷达图像,将预处理后的合成孔径雷达图像按比例分为训练集和测试集;
[0007]构建骨干网络模型,将带有真实值标签的训练集数据输入骨干网络模型中,获得骨干网络模型中输出的特征图并计算第一损失函数;
[0008]构建可分性测度网络模型,计算所述骨干网络模型中输出的特征图的可分性测度值,根据所述可分性测度值计算第二损失函数;
[0009]将所述第一损失函数与所述第二损失函数计算得到综合损失函数,基于所述综合损失函数对所述骨干网络模型进行迭代训练,得到训练好的骨干网络模型;
[0010]将所述测试集输入到训练好的骨干网络模型中,得到合成孔径雷达图像的类型识别结果。
[0011]进一步地,上述基于深度学习的合成孔径雷达图像的识别方法,其中,所述骨干网络模型包括若干层网络分支,每层网络分支用于根据所述合成孔径雷达图像进行特征提取,并输出不同分辨率的特征图。
[0012]进一步地,上述基于深度学习的合成孔径雷达图像的识别方法,所述每一层网络分支均包括卷积
‑
池化组合,所述卷积
‑
池化组合包括卷积层、非线性映射层与池化层;其中,卷积层与池化层的参数根据骨干网络模型的任务识别与合成孔径雷达图像特点进行适应性调整。
[0013]进一步地,上述基于深度学习的合成孔径雷达图像的识别方法,其中,所述构建可分性测度网络模型,计算所述骨干网络模型中输出的特征图的可分性测度值,根据所述可分性测度值计算第二损失函数,具体包括:
[0014]构建可分性测度网络模型,根据所述骨干网络模型的层数、每层输出的特征图的大小和数量确定特征图的降维方式以及可分性测度值的权重分布;
[0015]对特征图进行降维处理,并计算每一层输出的特征图的可分性测度值;
[0016]基于每一层输出的特征图的可分性测度值计算第二损失函数。
[0017]进一步地,上述基于深度学习的合成孔径雷达图像的识别方法,其中,所述对特征图进行降维处理,具体包括:
[0018]采用全局最大池化对特征图进行降维处理,再通过Reshape操作对降维后的特征图进行维度重置。
[0019]进一步地,上述基于深度学习的合成孔径雷达图像的识别方法,其中,所述计算每一层输出的特征图的可分性测度值,具体包括:
[0020]获取维度重置后的特征图的特征矩阵Z,通过下式计算编码特征矩阵Z的最小二进制比特数R(Z,ε):
[0021][0022]其中,表示特征矩阵,d
×
m表示特征矩阵的维数,ε表示预设精度,Z
Τ
为Z的转置,I表示单位矩阵,det(
·
)表示矩阵的行列式;
[0023]通过下式计算不同类别目标的特征之间的距离大小度量R
C
(Z,ε|Π):
[0024][0025]其中,为对角矩阵,对角元素Π
j
(i,i)表示样本Z
i
属于类别j的概率,tr(
·
)表示矩阵的迹;
[0026]将编码特征矩阵的最小二进制比特数与不同类别目标的特征之间的距离大小度量之间的差值,或比值作为特征图的可分性测度值。
[0027]进一步地,上述基于深度学习的合成孔径雷达图像的识别方法,其中,所述基于每一层输出的特征图的可分性测度值计算第二损失函数,具体包括:
[0028]通过下式计算第二损失函数:
[0029][0030]其中,N表示特征图个数,表示第i个特征图的可分性测度值,α
i
表示第i个特征图对应的权值系数。
[0031]进一步地,上述基于深度学习的合成孔径雷达图像的识别方法,其中,所述第一损失函数采用交叉熵损失函数,其计算公式为:
[0032][0033]其中,表示骨干网络模型的预测结果,y表示训练样本的真实标签类型。
[0034]进一步地,上述基于深度学习的合成孔径雷达图像的识别方法,其中,还包括:
[0035]根据骨干网络模型的任务识别特点,确定所述第一损失函数与所述第二损失函数的加权比例,加权计算得到综合损失函数。
[0036]总体而言,通过本专利技术所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
[0037](1)本专利技术提供的基于深度学习的合成孔径雷达图像的识别方法,通过对合成孔径雷达图像进行数据预处理、特征提取和分类识别得到目标的可靠识别结果。在识别过程中通过引入可分性测度的概念,增强了骨干网络模型识别过程的可解释性。通过可分性测度值的计算,并将其作为综合损失函数的一部分,融入到模型的训练收敛过程中,使得模型的识别效率和准确率均有明显提升,为作战指挥人员的战场决策提供了扎实可靠的信息支撑。
[0038](2)采用本专利技术提供的基于深度学习的合成孔径雷达图像的识别方法,将统计学思想融入到模型训练收敛相关计算中,用可分性测度值表示每次迭代后不同类别目标的特征之间的距离大小,使得模型每一次迭代的收敛效果都可计算、可量化,将可分性测度值作为损失函数的一部分引入到模型训练过程的约束中,加速了模型的收敛过程,提高了模型优化过程的可解释性。
附图说明
[0039]为了更清楚地说明本申请实施例中的技术方案,下面将对实施例中所需使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0040]图1为本申请实施例提供的一种基于深度学习的合成孔径雷达图像的识别方法的流程示意图;
[0041]图2为本申请实施例提供的预处理后的十种地面移动目标合成孔径雷达图像;
[004本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种基于深度学习的合成孔径雷达图像的识别方法,其特征在于,包括以下步骤:获取合成孔径雷达图像,将预处理后的合成孔径雷达图像按比例分为训练集和测试集;构建骨干网络模型,将带有真实值标签的训练集数据输入骨干网络模型中,获得骨干网络模型中输出的特征图并计算第一损失函数;构建可分性测度网络模型,计算所述骨干网络模型中输出的特征图的可分性测度值,根据所述可分性测度值计算第二损失函数;将所述第一损失函数与所述第二损失函数计算得到综合损失函数,基于所述综合损失函数对所述骨干网络模型进行迭代训练,得到训练好的骨干网络模型;将所述测试集输入到训练好的骨干网络模型中,得到合成孔径雷达图像的类型识别结果。2.如权利要求1所述的基于深度学习的合成孔径雷达图像的识别方法,其中,所述骨干网络模型包括若干层网络分支,每层网络分支用于根据所述合成孔径雷达图像进行特征提取,并输出不同分辨率的特征图。3.如权利要求2所述的基于深度学习的合成孔径雷达图像的识别方法,所述每一层网络分支均包括卷积
‑
池化组合,所述卷积
‑
池化组合包括卷积层、非线性映射层与池化层;其中,卷积层与池化层的参数根据骨干网络模型的任务识别与合成孔径雷达图像特点进行适应性调整。4.如权利要求1所述的基于深度学习的合成孔径雷达图像的识别方法,其中,所述构建可分性测度网络模型,计算所述骨干网络模型中输出的特征图的可分性测度值,根据所述可分性测度值计算第二损失函数,具体包括:构建可分性测度网络模型,根据所述骨干网络模型的层数、每层输出的特征图的大小和数量确定特征图的降维方式以及可分性测度值的权重分布;对特征图进行降维处理,并计算每一层输出的特征图的可分性测度值;基于每一层输出的特征图的可分性测度值计算第二损失函数。5.如权利要求4所述的基于深度学习的合成孔径雷达图像的识别方法,其中,所述对特征图进行降维处理,具体包...
【专利技术属性】
技术研发人员:张一凡,高勋章,夏靖远,黎湘,霍凯,李玮杰,王建山,张娜,
申请(专利权)人:中国人民解放军国防科技大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。