System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于多元信息交互的长周期多元时间序列预测方法技术_技高网

一种基于多元信息交互的长周期多元时间序列预测方法技术

技术编号:40836673 阅读:2 留言:0更新日期:2024-04-01 15:01
本发明专利技术公开了一种基于多元信息交互的长周期多元时间序列预测方法,包括:获取多元时间序列数据;对数据进行归一化的预处理;将处理后的数据进行时间序列分解,并将分解后的趋势项和周期项分别传入不同的后续网络;针对的趋势项,通过线性层进行映射;针对周期项,构建用于捕获多元信息的卷积模块,借助卷积分别提取多元时序在不同元之间隐藏的信息并产生包含了多元信息的数据矩阵,然后通过线性层进行映射;搭建用于预测的多通道独立网络,将经过处理的趋势项和周期项传入网络进行预测,并将预测结果进行合并;最后对预测结果进行反归一化还原。本发明专利技术的优势在于采用了卷积提取多元时间序列之间的多元信息改善预测,可以进一步提高预测的准确度。

【技术实现步骤摘要】

本专利技术涉及时间序列预测,特别涉及一种基于多元信息交互的长周期多元时间序列预测方法


技术介绍

1、多元时间序列预测(mts)涉及随着时间的推移对多个变量进行预测。mts预测模型一般可分为统计模型和神经模型。统计模型,例如向量自回归(var)模型和向量自回归移动平均(varma)模型,假设跨维度和时间存在线性依赖性。另一方面,在深度学习进步的推动下,神经模型已经显示出很好的结果,并且通常优于统计方法。用于mts预测的神经模型(例如tcn和deepar)将mts数据视为一组连续的向量,并利用卷积神经网络(cnn)或递归神经网络(rnn)来捕获时间依赖性。lstnet使用cnn捕获跨维度依赖关系,并使用rnn来建模跨时间依赖关系。另一种方法涉及使用图神经网络(gnn)显式捕获跨维度依赖性以进行预测。例如,mtgnn结合了时间卷积层和图卷积层来捕获跨时间和跨维度的依赖关系。这些神经模型擅长通过cnn或rnn捕获跨时间依赖性。然而,他们可能面临有效建模长期依赖关系的挑战。由于cnn或rnn架构的固有限制,对长期依赖关系进行建模的难度较大。这些模型可能难以捕获时间序列数据中长时间延伸的复杂模式和关系。因此,解决长期依赖性仍然是mts预测领域持续面临的挑战。

2、transformer,最初由vaswani等人提出。以其在自然语言处理(nlp)、计算机视觉(cv)和语音处理方面的成功而闻名,最近在多元时间序列(mts)预测方面引起了人们的关注。特别是,大量的研究工作致力于解决长周期时间序列预测(ltsf)任务。一些基于transformer的模型已经出现,展示了该领域的巨大潜力。logtrans引入了logsparse注意力,informer通过kl散度估计利用注意力分数的稀疏性并提出probsparse自注意力,autoformer将自相关机制和分解架构融入到transformer中。pyraformer引入了金字塔注意力模块,该模块总结了不同分辨率下的特征,以线性复杂度对不同范围内的时间依赖性进行建模。

3、fedformer建议时间序列在频域中具有稀疏表示,并开发具有线性复杂度的频率增强transformer。preformer将嵌入的特征向量序列划分为多个片段,并利用基于分段相关性的注意力进行预测。尽管这些模型在长周期时间序列预测(ltsf)任务上表现良好,但仍然存在一些问题。首先,现有的基于transformer的模型主要关注如何降低注意力计算的复杂度,并通过设计各种稀疏注意力机制来实现这一点。然而,这些方法除了计算注意力之外还有大量的额外操作,这使得实际运行时性能较差。其次,时间序列与其他序列结构数据存在巨大差异。时间序列主要关注序列元素的顺序,即它们的时间关系,而不是不同元素之间的配对关系。第三,transformer对lstf的有效性缺乏合理的解释,尤其是dlinear提出后,lstf任务有了更多的可能性可以探索。dlinear是一个简单的线性模型,其性能令人惊讶地优于上述许多基于transformer的模型。它通过线性映射来获取知识,揭示了自注意力机制中使用的次二次近似的局限性。它将时间序列分解为趋势序列和季节性序列,并使用两个单层线性网络对这两个序列进行建模以执行预测任务。lightts是与dlinear同时提出的模型,它也通过简单的线性网络实现了令人惊讶的性能。通过采样和信息交换块捕获不同时期的信息进行预测。

4、然而,先前提出的方法,包括基于transformer和基于mlp的方法,主要关注如何对时间关系进行建模,而忽略了多元时间序列中的多元属性。对于多元时间序列预测,依赖性不仅存在于时间维度内,而且在不同元素之间表现出独特的关系。lstnet、tpa-lstm和crossformer等文章强调了这一点。这意味着不同的变量可能表现出不同的周期性模式,包括每日、每月或每季度的周期。此外,这些周期性模式可能因同一数据集中的不同变量而异。因此,通过捕获多元序列之间的多元信息对改进长周期多元时间序列预测的效果具有十分重要的意义。


技术实现思路

1、为解决长周期多元时间序列预测方法缺乏对多变量之间的依赖关系的学习的问题,本专利技术的目的是提供一种基于多元信息交互的长周期多元时间序列预测方法,该方法能够充分地学习长期时间的依赖,同时建模多元序列之间的依赖关系以提升预测的准确度。本专利技术根据多元信息交互在多元时间序列预测中表现出的良好效果,将能够建模多元依赖的卷积模块嵌入到原有的dlinear架构当中,以融合多元依赖与时序依赖,实现长周期多元时间序列的准确预测。

2、为达到上述目的和技术效果,本专利技术的具体步骤为:

3、步骤s1,获取多元时间序列数据。

4、步骤s2,对数据进行预处理,即对其进行归一化,使得时间序列数值上保持平稳,将归一化过程中的均值和方差记录下来。

5、步骤s3,对归一化后的数据采用时序分解,将其分解为趋势项与周期项,其中周期项为原序列减去趋势项得到。具体而言:

6、步骤s301采用移动平均对归一化后的时序数据进行处理,在本专利技术中,移动平均的长度为20,即从当前值向前取20个值计算其算术平均用来代替当前值,得到用移动平均值表示的序列,即趋势项。

7、步骤s302用归一化后的时序数据减去趋势项,得到周期项。

8、步骤s4,利用分解得到的趋势项和周期项,分别传入不同的后续网络,产生预测值。其中的具体步骤为:

9、步骤s401,对于趋势项,将其传入一个完全共享参数的前馈神经网络。

10、步骤s402,对于周期项,构建卷积多元信息交互模块,通过该模块学习多元时间序列不同元之间的依赖关系,并将多元信息融入其序列中,聚合时序依赖和多元依赖生成数据矩阵。

11、步骤s403,将经过处理的趋势项和周期项进行相加通过线性通道独立网络进行预测。

12、步骤s5,利用在预处理阶段记录的均值和方差,对预测产生的结果进行反归一化。在训练期间利用该预测值与真实值进行监督学习。

13、步骤s6,使用训练好的预测模型在测试集上进行预测。

14、进一步,步骤s402所述的多元信息交互模块,其过程如下:

15、首先,构建用于捕获时序依赖的卷积模块ctemporal,提取周期项数据horiginal的时序依赖,得到聚合了时序信息的数据矩阵htemporal:

16、htemporal=horiginal*ctemporal

17、其次,构建用于捕获变量依赖的卷积模块cchannel,提取多元时序的变量依赖,得到聚合了时序依赖和变量依赖的数据矩阵hchannel:

18、hchannel=linear(htemporal)*cchannel

19、最后,对于数据矩阵hchannel,通过线性映射,还原其维度,得到多元信息交互模块最终的输出houtput:

20、houtput=lin本文档来自技高网...

【技术保护点】

1.一种基于多元信息交互的长周期多元时间序列预测方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的基于多元信息交互的长周期多元时间序列预测方法,其特征在于,步骤S402所述构建卷积多元信息交互模块,其过程如下:

【技术特征摘要】

1.一种基于多元信息交互的长周期多元时间序列预测方法,其特征在于,包括以下步骤:

2.根据权利要求1所述...

【专利技术属性】
技术研发人员:唐共勇陈岑
申请(专利权)人:华东师范大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1