基于GAN和AttentionU-NET结构的穿墙雷达特征增强方法及系统技术方案

技术编号:37061462 阅读:12 留言:0更新日期:2023-03-29 19:40
本发明专利技术公开一种基于GAN和Attention U

【技术实现步骤摘要】
基于GAN和Attention U

NET结构的穿墙雷达特征增强方法及系统


[0001]本专利技术涉及属于雷达或雷达式动作识别
,特别涉及一种基于神经网络的穿墙雷达人体微动特征增强方法及系统。

技术介绍

[0002]雷达是一种无线探测以及感知对象的技术,是国际科技界公认的新兴前沿技术。该技术以雷达发射的特殊的电磁波为载体,根据使用的电磁波的特性,能穿透衣物、废墟、墙壁等障碍。在电磁波照射到目标表面时会发生反射,而人体目标的运动,体型,都会对电磁波的反射造成影响,进而在雷达接受反射波时可以对目标进行预测。人体动作,会引起人体不同身体部件的进行不同程度的微动,对这些微动特征进行捕捉,进而可以实现动作的识别,甚至目标身份识别。雷达具有非接触、穿透力强、能精确定位的特点,在生物医学、国家安全、应急救援等领域具有广泛的应用前景。
[0003]穿墙人体动作识别在反恐和人机交互中具有重要意义。基于雷达的穿墙运动识别与自由空间有很大不同。由于墙体和墙后空间所引起的各种多径效应的影响,时间范围图中存在大量的直流杂波,使得运动的正确识别变得困难。目标可能在较大范围内移动,雷达信号的能量会随着穿墙而衰减,这使得距离较远的目标的能量非常微弱。另外,信号的能量可能会受到噪声和距离的影响,但相同运动的信号分布是固定的。如果直接使用原始的时间范围图进行动作识别,精度会受到上述原因的影响。

技术实现思路

[0004]本专利技术旨在提供一种对穿墙场景下雷达的特征增强的方法及系统,以神经网络框架为核心,使用所提出的神经网络框架解决对穿墙后雷达的特征存在较大的干扰以及特征不明显的问题,为安全、人机交互等领域的人体信息非接触感知提供新的方法和手段。
[0005]本专利技术的技术方案如下:一种基于GAN和Attention U

NET结构的穿墙雷达特征增强方法,包括以下步骤:
[0006]对FMCW模式的雷达回波数据进行距离向傅里叶变换,获得原始的距离

时间图;
[0007]将原始的距离时间图输入一个训练好的GAN神经网络结构,去除墙体以及多径带来的直流分量,获得干净的距离

时间图;
[0008]将所述干净的距离

时间图输入到训练好的Attention U

NET神经网络结构,最终得到语义分割后的距离

时间图,在距离

时间图上将属于目标的像素和有噪声的背景分为两类。
[0009]GAN

UNET神经网络包括一个GAN结构以及一个Attention U

NET,GAN结构用于将原始的范围时间图转换为干净的距离

时间图,Attention U

NET用于将干净的距离

时间图分割为两个类;GAN结构和Attention U

NET结构独立训练,训练GAN后,保留生成器,丢弃判别器,GANs训练生成器以使生成的输出尽可能地欺骗判别器,训练判别器以尽可能区分
真实图像和生成图像,
[0010]采用基于TV约束的Pix2Pix GAN,Pix2Pix GAN使用编解码结构,将原始输入图像映射为高维码,然后将其解码为输出图像;
[0011]训练优化过程即迭代训练生成器和鉴别器,训练的损失函数为:
[0012][0013]其中,E为期望,log为对数函数,D代表鉴别器,G代表生成器;
[0014]使用L1距离作为正则化项实现更好的像素级生成
[0015][0016]其中,x为输入原始距离

时间图,z为噪声,y为标签图;
[0017]将Total Variation(TV)作为解决这个问题的正则项TV范数如下:
[0018][0019]最终的优化目标为如下:
[0020][0021]其中,为最小时的G的值,和使最大时D的值,α为项的系数,β为项的系数,α与β为根据实际计算结果调整。
[0022]GAN神经网络的训练过程包括以下步骤:
[0023]基于RPCA方法获取的去墙的距离

时间图做为GAN网络生成器的训练标签,构建从雷达回波直接转换得到的原始距离

时间图到干净的距离时间图的一一对应的数据集;
[0024]从数据集中选取原始的距离

时间图作为GAN生成器的输入,并设定批次大小(16),计算GAN的输出与标签以及鉴别器的损失函数;
[0025]根据损失函数固定生成器或者鉴别器,基于损失函数采用Adam方法优化鉴别器或者生成器的参数;
[0026]多次遍历整个数据集,进行网络训练,将训练后的参数保存,得到训练好的GAN网络。
[0027]Attention U

NET结构包含一个编码器路径和一个解码器路径,在跳过连接上添加一个注意门,编码器路径包括卷积层、批量归一化层、ReLU层和最大池化层,用于提取高维特征和下采样;解码器路径包含卷积层和向上卷积层,用于恢复图像比例并制作标签;跳过用于获取在编码器路径下采样期间丢失的信息。
[0028]所述注意门为一个自注意门模块;首先,来自解码器的特征图x
l
和来自编码器的特征图x
p
独立输入到1
×
1卷积层,进行跨通道的线性变换;其次,两个转换后的地图进行元素相加;应用ReLU函数激活添加的地图;最后,使用卷积层和sigmoid函数计算注意力系数α,注意门的输出为输入特征图x
l
和注意系数α的元素乘法。
[0029]Attention U

NET训练包括以下步骤:
[0030]将训练好的GAN网络输出的距离

时间图进行二值化作为标签,构建从GAN网络输出的距离

时间图到语义分割后的距离

时间图的一一对应的数据集;
[0031]将数据集中GAN网络输出的距离

时间图作为Attention U

NET网络的输入,设定
批次大小,计算Attention U

NET的输出与标签的二分类交叉损失函数;
[0032]根据损失函数网络的Attention U

NET参数,其中优化器采用Adam方法训练。
[0033]遍历整个数据集多次进行网络训练,将多次训练完成后的参数保存,得到训练好的Attention U

NET网络。
[0034]雷达回波数据中,发射信号的中心频率在2.39GHz,系统工作频率在380MHz

4.4GHz。
[0035]另一方面,本专利技术提供一种基于GAN和Attention 本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于GAN和Attention U

NET结构的穿墙雷达特征增强方法,其特征在于,包括以下步骤:对FMCW模式的雷达回波数据进行距离向傅里叶变换,获得原始的距离

时间图;将原始的距离

时间图输入一个训练好的GAN神经网络结构,去除墙体以及多径带来的直流分量,获得干净的距离

时间图;将所述干净的距离

时间图输入到训练好的Attention U

NET神经网络结构,最终得到语义分割后的距离

时间图,在距离

时间图上将属于目标的像素和有噪声的背景分为两类。2.根据权利要求1所述的基于GAN和Attention U

NET结构的穿墙雷达特征增强方法,其特征在于,GAN

UNET神经网络包括一个GAN结构以及一个Attention U

NET,GAN结构用于将原始的范围时间图转换为干净的距离

时间图,Attention U

NET用于将干净的距离

时间图分割为两个类;GAN结构和Attention U

NET结构独立训练,训练GAN后,保留生成器,丢弃判别器,GANs训练生成器以使生成的输出尽可能地欺骗判别器,训练判别器以尽可能区分真实图像和生成图像,采用基于TV约束的Pix2Pix GAN,Pix2Pix GAN使用编解码结构,将原始输入图像映射为高维码,然后将其解码为输出图像;训练优化过程即迭代训练生成器和鉴别器,训练的损失函数为:其中,E为期望,log为对数函数,D代表鉴别器,G代表生成器;使用L1距离作为正则化项实现更好的像素级生成其中,x为输入原始距离

时间图,z为噪声,y为标签图;将Total Variation作为解决这个问题的正则项Total Variation范数如下:最终的优化目标为如下:其中,为最小时的G的值,和使最大时D的值,α为项的系数,β为项的系数,α与β为根据实际计算结果调整。3.根据权利要求2所述的基于GAN和Attention U

NET结构的穿墙雷达特征增强方法,其特征在于,GAN神经网络的训练过程包括以下步骤:基于RPCA方法获取的去墙的距离

时间图做为GAN网络生成器的训练标签,构建从雷达回波直接转换得到的原始距离

时间图到干净的距离时间图的一一对应的数据集;从数据集中选取原始的距离

时间图作为GAN生成器的输入,并设定批次大小,计算GAN的输出与标签以及鉴别器的损失函数;根据损失函数固定生成器或者鉴别器,基于损失函数采用Adam方法优化鉴别器或者生成器的参数;
多次遍历整个数据集,进行网络训练,将训练后的参数保存,得到训练好的GAN网络。4.根据权利要求1所述的基于GAN和Attention U

NET结构的穿墙雷达特征增强方法,其特征在于,Attention U

NET结构包含一个编码器路径和一个解码器路径,在跳过连接上添加一个注意门,编码器路径包括卷积层、批量归一化层、ReLU层和最大池化层,用于提取高维特征和下采样;解码器路径包含卷积层和向上卷积层,用于恢复图像比例并制作标签;跳过用于获取在编码器路径下采样期间丢失的信息。5.根据权利要求4所述...

【专利技术属性】
技术研发人员:安强张成金寇辰宵吕昊李世勇王健琪
申请(专利权)人:中国人民解放军空军军医大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1