System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 基于IH-TCGAN的意图识别数据增强方法技术_技高网

基于IH-TCGAN的意图识别数据增强方法技术

技术编号:40188017 阅读:11 留言:0更新日期:2024-01-26 23:51
本发明专利技术公开了基于IH‑TCGAN的意图识别数据增强方法,涉及防空作战意图识别技术领域,其技术方案要点是:设计用于生成多类别时序数据的TCGAN网络。将传统GAN中的判别器改进为转化器,并在网络结构中添加复原器和分类器,相应地设计了判别损失、重构损失、分类损失三种损失函数,并采用联合训练方式。针对时间序列数据的特点,提出考虑时间顺序的IH距离,并将其作为TCGAN的损失函数。该方法可以生成与真实数据相似的多类多元时序数据,训练已有的识别模型,改善意图识别实测样本集数据稀缺和样本不平衡,并且可以应用于其他更广泛的多类别多元时间序列数据生成场景。

【技术实现步骤摘要】

本专利技术涉及防空作战意图识别,更具体地说,它涉及基于ih-tcgan的意图识别数据增强方法。


技术介绍

1、生成对抗网络(generative adversarial network,gan)是一种生成模型,其本质是一种无监督的深度学习生成方法。gan中的两个模型分别命名为判别器(discriminator)和生成器(generator),它们可以是各种非线性映射函数,如机器学习模型和深度神经网络。判别器的任务是确定样本是真或假,生成器的目的是通过生成与真实数据分布情况高度相似的合成数据来欺骗判别器。判别器输出给定样本是真实样本的概率,概率值越高则表明样本越接近真实样本,反之亦然。

2、意图识别数据本质上是多类多元时序数据,多类的意思是经过标注后包含有多种意图标签,多元的意思是包含有多种变量,具体包括目标高度、目标速度、目标距离等特征。由于防空作战的复杂对抗性,能够获得的意图识别真实数据集往往具有数据量少、数据类型不平衡等问题。训练数据集作为深度学习三大基石——数据、算力、算法中的第一项,其质量将对后续模型的训练效果产生重要影响。

3、深度学习的基础是大量的高质量数据,但在防空作战意图识别领域,由于实战场景不足,往往会面临数据量少、数据集不平衡等关键问题。


技术实现思路

1、本专利技术的目的是提供基于ih-tcgan的意图识别数据增强方法,该方法可以生成与真实数据相似的多类多元时序数据,训练已有的识别模型,改善意图识别实测样本集数据稀缺和样本不平衡,并且可以应用于其他更广泛的多类别多元时间序列数据生成场景。

2、本专利技术的上述技术目的是通过以下技术方案得以实现的:基于ih-tcgan的意图识别数据增强方法,所述方法包括以下三个步骤:

3、s1.设计用于生成多类别时序数据的tcgan网络;

4、s2.提出考虑时间顺序的ih距离;

5、s3.将ih距离作为tcgan的损失函数,即ih-tcgan的损失函数。

6、本专利技术进一步设置为:所述s1中tcgan网络由生成器、转化器、复原器和分类器四个网络构成,具有判别损失、重构损失和分类损失三种损失函数;

7、ld=d*(t(x),t(g(z)))

8、判别损失ld表示经过转化器t降维之后在低维流形空间中的真实映射数据t(x)和合成映射数据t(g(z))之间的距离;

9、lr=d*(x,r(t(x)))

10、重构损失lr表示经过转化器t与复原器r的编码与解码过程之后,得到的复原数据r(t(x))与真实数据x之间的距离;

11、

12、分类损失lc表示生成的时序数据是否属于某种特定意图类别c的概率;

13、c表示数据的意图标签,代表潜在时间序列数据,包括t(x)和t(g(z)),t(x)代表真实映射数据,t(g(z))代表合成映射数据,x代表真实数据,r(t(x))代表真实复原数据,表示期望,p表示概率,d*表示距离。

14、本专利技术进一步设置为:所述s2中ih距离是基于hausdorff距离和一个时间正则项μ|α-β|来计算两个时序点集之间的距离,对于任意时刻α,β∈τ,τ表示每个样本具有τ个时刻点,ih距离公式为

15、

16、dμ(aα,bβ)=d(aα,bβ)+μ|α-β|

17、=||aα-bβ||2+μ|α-β|

18、其中,aα和bβ分别表示点集aτ中第α个时刻的点和点集bτ中第β个时刻的点,μ|α-β|为引入的时间正则项,表示两个时序点集中不同点之间的时序差异,μ为时间正则项参数,μ≥0。

19、本专利技术进一步设置为:所述ih距离的具体计算过程如下所示:

20、输入:时序点集aτ=(a1,a2,...,am)和bτ=(b1,b2,...,bn),时间正则项参数μ

21、输出:ih距离dih(aτ,bτ)

22、(1)生成矩阵dμ,dμ为m行和n列;

23、(2)forα=1 to m do;

24、(3)forβ=1 to n do;

25、(4)dα,β=||aα-bβ||2+μ|α-β|;db={minαdα,β,β=1,2,...,n};

26、(5)计算da={minβdα,β,α=1,2,...,m};

27、(6)计算da=max(da),db=(db);

28、(7)计算dih(aτ,bτ)=max(da,db)。

29、本专利技术进一步设置为:所述s3中将ih距离作为tcgan的损失函数,进一步得到的ih-tcgan的损失函数如下:

30、ld=dih(t(x),t(g(z)))

31、lr=d*(x,r(t(x)))

32、

33、dih为两个时序点集之间的ih距离。

34、本专利技术进一步设置为:所述ih-tcgan采用联合训练机制,三种损失函数通过以下方式进行训练

35、

36、其中,θg、θt、θr、θc分别表示生成器g、转化器t、复原器r、分类器c的参数,平衡参数λ=1,η=0.8

37、综上所述,本专利技术具有以下有益效果:本专利技术设计了用于生成多类别时序数据的tcgan网络。将传统gan中的判别器改进为转化器,可以将真实数据和合成数据转化到具有相同内在维数的流形空间中进行比较,并针对转化过程的可逆性和意图识别数据的多类别特点,在网络结构中分别添加了复原器和分类器,相应地设计了判别损失、重构损失、分类损失三种损失函数,并采用联合训练方式,使得tcgan能够生成具有时序性、多元性和多类别等特点的意图识别数据。其次,针对时间序列数据的特点,提出了考虑时间顺序的ih距离,并将其作为tcgan的损失函数。ih距离公式中包含一个时间正则项,可以对时序数据中时间顺序的差异进行表征,能够更好地测量两个时序集之间的距离。在两个时间序列数据集上进行对比实验,ih-tcgan可以生成与真实数据相似的多类多元时序数据,并且比其他生成方法具有更优的性能。应用实验证明ih-tcgan生成的意图识别时序数据可以用于训练已有的识别模型,并获得较好的效果。ih-tcgan方法能够大大改善意图识别实测样本集数据稀缺和样本不平衡等问题,除此之外,ih-tcgan也可以应用于其他更广泛的多类别多元时间序列数据生成场景。

本文档来自技高网...

【技术保护点】

1.基于IH-TCGAN的意图识别数据增强方法,其特征是:所述方法包括以下三个步骤:

2.根据权利要求1所述的基于IH-TCGAN的意图识别数据增强方法,其特征是:所述S1中TCGAN网络由生成器、转化器、复原器和分类器四个网络构成,具有判别损失、重构损失和分类损失三种损失函数;

3.根据权利要求2所述的基于IH-TCGAN的意图识别数据增强方法,其特征是:所述S2中IH距离是基于Hausdorff距离和一个时间正则项μ|α-β|来计算两个时序点集之间的距离,对于任意时刻α,β∈τ,τ表示每个样本具有τ个时刻点,IH距离公式为

4.根据权利要求3所述的基于IH-TCGAN的意图识别数据增强方法,其特征是:所述S3中将IH距离作为TCGAN的损失函数,进一步得到的IH-TCGAN的损失函数如下:

5.根据权利要求4所述的基于IH-TCGAN的意图识别数据增强方法,其特征是:所述IH-TCGAN采用联合训练机制,三种损失函数通过以下方式进行训练

【技术特征摘要】

1.基于ih-tcgan的意图识别数据增强方法,其特征是:所述方法包括以下三个步骤:

2.根据权利要求1所述的基于ih-tcgan的意图识别数据增强方法,其特征是:所述s1中tcgan网络由生成器、转化器、复原器和分类器四个网络构成,具有判别损失、重构损失和分类损失三种损失函数;

3.根据权利要求2所述的基于ih-tcgan的意图识别数据增强方法,其特征是:所述s2中ih距离是基于hausdorff距离和一个时间正则项μ|...

【专利技术属性】
技术研发人员:付强王思远王刚范成礼李腾达
申请(专利权)人:中国人民解放军空军工程大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1