【技术实现步骤摘要】
基于并行多重时间注意力机制的燃气负荷预测方法及系统
[0001]本专利技术属于燃气负荷预测领域,具体涉及基于并行多重时间注意力机制的燃气负荷预测方法及系统。
技术介绍
[0002]随着深度学习的发展,循环神经网络(Recurrent Neural Network)被广泛的应用于序列任务。基于RNN网络,Cho,Van,Gulcehre等人在“Learning Phrase Representations using RNN Encoder
‑
Decoder for Statistical Machine Translation”中提出encoder
‑
decoder架构,通过组合两个RNN网络来提升网络模型准确度——一个RNN网络作为编码器(encoder)对输入数据进行编码,另一个RNN网络作为解码器(decoder)对编码结果进行解码输出。由于该架构在机器翻译任务中的成功,遂被应用于时间序列任务的研究。
[0003]基于注意力机制的encoder
‑
decoder结构,在时间序列预测中,采用RNN类网络实现的encoder
‑
decoder架构存在处理长输入序列时,模型的拟合能力快速下降问题。通过在encoder
‑
decoder之间添加一层注意力模块,能够有效处理输入长序列时,模型拟合能力下降过快问题。
[0004]如,在Yang Li等人提出的“Area Attention”中,为让注意力机制能够学习到更
【技术保护点】
【技术特征摘要】
1.基于并行多重时间注意力机制的燃气负荷预测方法,其特征在于,包括以下步骤:S1,构建使用并行多重时间注意力机制的encoder
‑
decoder模型;模型包括编码器和解码器,编码器和解码器之间设置有多层时间注意力模块和局部历史注意力模块;S2,将燃气特征数据输入S1建立的模型中进行训练,生成一个包含不同层次时间信息的上下文向量,并依据局部历史信息,让模型选择最相关的历史输入数据;S3,基于S2生成的上下文向量和加权后的燃气数据,来预测燃气负荷。2.根据权利要求1所述的基于并行多重时间注意力机制的燃气负荷预测方法,其特征在于,所述多层次时间注意力模块,利用上一时间步骤中解码器产生的隐藏状态h'
t
‑1与cell状态c'
t
‑1,结合当前编码器的所有隐藏状态,生成一个从全局出发的包含多层次时间模式信息的上下文向量;所述局部历史注意力模块,利用上一时间步骤中编码器产生的隐藏状态h
t
‑1与上一时间步骤中解码器产生的隐藏状态h'
t
‑1,同时结合当前编码器的所有隐藏状态信息,对输入的历史信息进行加权处理,使得解码器在解码预测过程中能够关注局部重要性更高的历史数据。3.根据权利要求2所述的基于并行多重时间注意力机制的燃气负荷预测方法,其特征在于,S2中,模型训练步骤包括:S21,利用多层次时间注意力模块计算得到包含不同层次时间信息上下文向量;S22,利用局部历史注意力模块,结合局部历史数据的时间依赖计算出输入历史数据的注意力权重,以便解码器在解码过程中能够更加关注最相关的历史数据。4.根据权利要求3所述的基于并行多重时间注意力机制的燃气负荷预测方法,其特征在于,S21中上下文向量的计算步骤包括:S211,对原始输入数据h'
t
‑1,c'
t
‑1及h
1~3
通过可学习参数进行转化;转化方式如下:q=W
q
[(h
′
t
‑1+c
′
t
‑1)/2]+(h
′
t
‑1+c
′
t
‑1)/2(1)k
i
=W
k
h
i
+h
i
,1≤i≤T(2)v
i
=W
v
h
i
,1≤i≤T(3)设解码器隐藏层维度为d,则h'
t
‑1∈R
d
×1,c'
t
‑1∈R
d
×1,h
i
∈R
d
×1,其中W
q
∈R
d
×
d
,W
k
∈R
d
×
d
,W
v
∈R
d
×
d
为可学习参数矩阵;则K=(k1,k2,k3),V=(v1,v2,v3);后续操作在新数据q,K,V上进行操作;S212,多层次时间注意力模块分两步并行计算,分别计算单时间步长与多时间步长的注意力信息;多层次时间注意力模块包括单时间步长注意力单元和多时间步长注意力单元;单步长时间注意力单元与传统注意力机制计算方式相同,每次计算单个向量,即一个k值,计算过程如下:e
i
=qk
i
,1≤i≤T(4)
其中,context2为单时间步长注意力单元产生上下文向量,e
i
为第i个key所对应能量权重a
i
为第i个key所对应的注意力权重;多步时间注意力单元先对原始K,V矩阵进行自适应步长合并,得到新矩阵K',V';获取到新的矩阵后,注意力计算方式...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。