System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于WCAN的调制识别及其模型训练方法技术_技高网

一种基于WCAN的调制识别及其模型训练方法技术

技术编号:40960433 阅读:2 留言:0更新日期:2024-04-18 20:38
本发明专利技术公开了一种基于WCAN的调制识别及其模型训练方法,属于无线通信领域。本发明专利技术设计了一种窗口注意卷积网络用于信号调制方式的识别,窗口注意卷积网络将输入的IQ信号分为多个尺度不同的局部窗口,并在这些局部窗口内进行以深度卷积、深度扩张卷积和点态卷积为核心构成的注意力计算,并对计算所得局部特征经过线性组合后进行识别输出;经过开源数据集的实验,本发明专利技术基于窗口注意卷积网络的调制识别模型整体分类精度方面均优于其他卷积模型和Transformer模型。

【技术实现步骤摘要】

本专利技术属于无线通信领域,更具体地,涉及一种基于wcan的调制识别及其模型训练方法。


技术介绍

1、调制分类任务在无线通信领域具有显著的重要性,尤其在多样化和高度复杂的现代通信环境中。通过准确地识别不同的调制方式,我们可以优化信号解调和数据恢复的过程,从而实现信号的高效传输和整个通信系统性能的提升。这在资源受限、高干扰或多用户的环境中尤为关键。特别是在没有先验信息的情况下,如何精准地识别传入的信号调制方式成为一项至关重要的基础功能。

2、近年来,原本用于图像识别的深度学习网络在调制识别中取得了显著的成果,其中,transformer架构中的全局自注意力为序列中的每个元素与其他所有元素的互动提供了机会,有利于捕捉长距离的依赖关系。然而,当transformer应用于iq路信号分类任务时,transformer面临几个挑战:首先,尽管self-attention具备处理多维数据的能力,它并没有充分地利用iq路信号中的联合结构来最大化特征捕获能力和鲁棒性;其次,它在处理局部特征时可能不如cnn或rnn等机制高效,这使其难以解码信号内部的细微结构和瞬时特性。

3、卷积神经网络(cnn)以其独特的空间层次结构和固定的感受野,在捕获局部和结构化的特征上显示出卓越的性能。然而,为了捕获更长的依赖关系或处理多尺度信息,cnn可能需要更多的参数和计算,这带来了更大的复杂性和计算成本。


技术实现思路

1、针对现有技术的以上缺陷或改进需求,本专利技术提供了一种基于wcan的调制识别及其模型训练方法,其目的在于提高基于深度学习网络的调制识别性能。

2、为实现上述目的,第一方面,本专利技术提供了一种基于wcan的调制识别模型训练方法,所述方法包括:

3、构建基于wcan的调制识别模型,所述模型中,iq信号依次经过多个阶段进行不同尺度的局部特征提取,所述局部特征经过线性组合后进行识别输出;每个所述阶段中都包括一个分块嵌入层和信号注意力块;所述分块嵌入层将输入的信号分为多个局部窗口,信号注意力块在所述局部窗口中进行以深度卷积、深度扩张卷积和点态卷积为核心构成的注意力计算,提取局部窗口中的特征;

4、设定训练参数,利用训练数据训练所述模型,直至达到训练结束条件。

5、优选的,所述信号注意力块中包括多个信号注意力层,所述信号注意力层中包括基于深度扩张卷积注意力机制的注意力子层和多层感知机子层,注意力子层和多层感知机子层均采用残差连接,注意力子层的输出数据输入多层感知机子层。

6、优选的,所述信号注意力层的运算过程为:

7、

8、atten2=mlp(ln(atten1))

9、

10、其中,output、input分别表示输出和输入;ln()表示归一化运算;attention()表示基于深度扩张卷积注意力机制的注意力子层运算;表示元素级乘积;mlp()表示多层感知机运算。

11、优选的,所述注意力子层的运算过程为:

12、output1=conv1d(ddca(gelu(conv1d(xin))))

13、其中,output1为输出,xin为输入,conv1d()表示一维卷积运算;gelu()表示激活函数;ddca()表示深度扩张卷积注意力运算。

14、优选的,所述深度扩张卷积注意力运算过程为:

15、

16、atten 3=conv1(ddconv(dconv(in)))

17、其中,output2为输出;in为输入;dconv()表示深度卷积运算;ddconv()表示深度扩张卷积运算;conv1()表示点态卷积运算;atten3为输入信号序列每个特征的权重;表示元素级乘积。

18、优选的,所述分块嵌入层的运算过程为:

19、pi=norm(conv1d(x))

20、其中,norm()表示批量标准化运算;conv1d()表示一维卷积运算;x表示输入;pi表示第i阶段中分块嵌入层的输出;

21、pi是形状为[ci,len/ni]的张量,其中,ci表示输出的通道数;len/ni表示输出窗口的尺寸;len表示iq信号的长度;ni=4×2i-1;

22、所述信号注意力块的输入输出通道数为ci。

23、优选的,iq信号依次经过多个阶段进行不同尺度的局部特征提取。

24、第二方面,本专利技术提供了一种基于wcan的调制识别方法,所述方法包括:

25、接收待识别iq信号并对所述信号进行预处理;

26、利用预训练好的调制识别模型对预处理后的iq信号进行调制识别;

27、输出识别到的调制方式;

28、其中,所述调制识别模型是根据权利要求1-7中任一所述的方法训练得到。

29、第三方面,本专利技术提供一种电子设备,包括:存储器,用于存储程序;处理器,用于执行存储器存储的程序,当存储器存储的程序被执行时,处理器用于执行第一方面中所描述的任一方法,或执行第二方面中所描述的方法。

30、第四方面,本专利技术提供一种存储介质,存储介质存储有计算机程序,当计算机程序在处理器上运行时,使得处理器执行第一方面中所描述的任一方法,或执行第二方面中所描述的方法。

31、总体而言,通过本专利技术所构思的以上技术方案与现有技术相比,具有以下有益效果:

32、本专利技术针对调制识别问题提出了窗口注意卷积网络(window convolutionattention network,wcan)的模型结构,该网络将输入的iq信号分为多个尺度不同的局部窗口,并在这些窗口内进行以深度卷积、深度扩张卷积和点态卷积为核心构成的局部注意力计算;wcan不仅能够有效地捕获局部结构信息,同时还具有处理长距离依赖的能力,在调制信号分类任务上展现出了显著的优越性;在4个开源数据集的实验中,wcan在整体分类精度方面均优于其他七个基于cnn、rnn、cnn+rnn混合以及transformer的模型。特别是在hisarmod2019.1数据集上,wcan达到了至少85%的最低识别准确率和95%以上的整体识别准确率。

本文档来自技高网...

【技术保护点】

1.一种基于WCAN的调制识别模型训练方法,其特征在于,所述方法包括:

2.根据权利要求1所述的方法,其特征在于,所述信号注意力块中包括多个信号注意力层,所述信号注意力层中包括基于深度扩张卷积注意力机制的注意力子层和多层感知机子层,注意力子层和多层感知机子层均采用残差连接,注意力子层的输出数据输入多层感知机子层。

3.根据权利要求2所述的方法,其特征在于,所述信号注意力层的运算过程为:

4.根据权利要求2或3所述的方法,其特征在于,所述注意力子层的运算过程为:

5.根据权利要求4所述的方法,其特征在于,所述深度扩张卷积注意力运算过程为:

6.根据权利要求1所述的方法,其特征在于,所述分块嵌入层的运算过程为:

7.根据权利要求1所述的方法,其特征在于,IQ信号依次经过四个阶段进行不同尺度的局部特征提取。

8.一种基于WCAN的调制识别方法,其特征在于,所述方法包括:

9.一种电子设备,其特征在于,包括:

10.一种存储介质,所述存储介质存储有计算机程序,其特征在于,当所述计算机程序在处理器上运行时,使得所述处理器执行权利要求1-7中任一所述的方法,或权利要求8所述的方法。

...

【技术特征摘要】

1.一种基于wcan的调制识别模型训练方法,其特征在于,所述方法包括:

2.根据权利要求1所述的方法,其特征在于,所述信号注意力块中包括多个信号注意力层,所述信号注意力层中包括基于深度扩张卷积注意力机制的注意力子层和多层感知机子层,注意力子层和多层感知机子层均采用残差连接,注意力子层的输出数据输入多层感知机子层。

3.根据权利要求2所述的方法,其特征在于,所述信号注意力层的运算过程为:

4.根据权利要求2或3所述的方法,其特征在于,所述注意力子层的运算过程为:

5.根据权利要求4所述的方法,其...

【专利技术属性】
技术研发人员:魏蛟龙唐祖平冯缘彭克潇王思芮赵峥
申请(专利权)人:华中科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1