一种基于图卷积网络模型的面向概率电力负荷预测方法技术

技术编号:39245464 阅读:12 留言:0更新日期:2023-10-30 11:57
本发明专利技术公开了一种基于图卷积网络模型的面向概率电力负荷预测方法,利用具有双重卷积通道的网络模型分别处理不同的分解分量,全面地从负荷数据中捕捉到时序关联性信息,并得到时空特征矩阵。将时空特征矩阵与自适应邻接矩阵通过堆叠的图卷积网络,得到图卷积特征矩阵。最后将图卷积特征矩阵通过线性变换得到自注意力机制的Q、K和V矩阵,然后执行自注意力机制得到自注意力特征矩阵,将自注意力特征矩阵与图卷积特征矩阵进行残差连接,然后进行归一化处理,得到预测负荷值矩阵。本发明专利技术能够同时从地理和语义两个层面来全面提取空间关联性信息,以丰富感受野进而捕捉多尺度增强的空间特征,从而得到更加准确的预测结果。从而得到更加准确的预测结果。从而得到更加准确的预测结果。

【技术实现步骤摘要】
一种基于图卷积网络模型的面向概率电力负荷预测方法


[0001]本申请属于电力负荷预测
,尤其涉及一种基于图卷积网络模型的面向概率电力负荷预测方法。

技术介绍

[0002]近年来,电力负荷预测因其能够提供良好的经济效益和社会效益而备受公众关注。然而,随着现代化进程的加速,电力系统规模也在迅速扩大,电力负荷数据预测的复杂性和难度也随之增加。因此,准确的电力负荷预测已成为一项具有挑战性的任务。概率电力负荷预测是公认的能有效解决这一挑战的一种方法,它考虑了电力负荷数据的不确定性和多变性,并能给出预测区间。概率电力负荷预测能够提升负荷预测的准确性,同时为电力系统提供科学的电力调度计划。
[0003]已有的研究大多采用时序分解策略来处理负荷数据的时序特征,却忽略了不同分解分量的重要性程度不同,导致所捕捉的时序关联性信息不完整。此外,以往的研究主要关注相邻负荷区域之间的地理关联性,忽略了负荷区域之间的语义关联性,导致对空间关联性信息的提取能力不足。

技术实现思路

[0004]本申请的目的是提供一种基于图卷积网络模型的面向概率电力负荷预测方法,以解决现有技术对空间关联性信息的提取能力不足的问题。
[0005]为了实现上述目的,本申请技术方案如下:
[0006]一种基于图卷积网络模型的面向概率电力负荷预测方法,包括:将待预测区域的历史电力负荷序列数据分解为趋势分量、季节分量和残差分量,所述趋势分量和季节分量分别经过全局卷积通道,然后进行拼接得到全局时序特征矩阵,所述残差分量经过局部卷积通道得到局部时序特征矩阵;采用门控机制对局部时序特征矩阵与全局时序特征矩阵进行处理,并经过全连接处理得到时空特征矩阵;将时空特征矩阵与自适应邻接矩阵通过堆叠的图卷积网络,得到图卷积特征矩阵;将图卷积特征矩阵通过线性变换得到自注意力机制的、和矩阵,然后执行自注意力机制得到自注意力特征矩阵;将自注意力特征矩阵与图卷积特征矩阵进行残差连接,然后进行归一化处理,得到预测负荷值矩阵。
[0007]进一步的,所述将图卷积特征矩阵通过线性变换得到自注意力机制的、和矩阵,然后执行自注意力机制得到自注意力特征矩阵,包括:将图卷积特征矩阵通过线性变化得到多头注意力机制的和矩阵,将图卷积特征矩阵通过线性变化得到矩阵,然后和矩阵的每个头通过多尺度卷积神经网络得到
多尺度和矩阵的每个头,然后对于多尺度和矩阵的每个头与矩阵执行自注意力机制,最后将各个头对应的自注意力结果拼接,得到自注意力特征矩阵。
[0008]进一步的,所述全局卷积通道包括卷积层和全连接层。
[0009]进一步的,所述局部卷积通道包括卷积层、池化层和全连接层。
[0010]进一步的,所述采用门控机制对局部时序特征矩阵与全局时序特征矩阵进行处理,包括:利用激活函数对局部时序特征矩阵进行激活操作,然后与全局时序特征矩阵相加。
[0011]进一步的,所述将图卷积特征矩阵通过线性变换得到自注意力机制的、和矩阵,包括:;;;其中,为query矩阵,为key矩阵,是value矩阵,、和是分别用于生成query矩阵、key矩阵和value矩阵的可学习参数矩阵,为图卷积特征矩阵。
[0012]进一步的,所述将图卷积特征矩阵通过线性变化得到多头注意力机制的和矩阵,包括:;;其中,表示将输入矩阵分为个头,为query矩阵的第i个头,为key矩阵的第i个头,和是分别用于生成query矩阵和key矩阵的第i个头的可学习参数矩阵,为图卷积特征矩阵;所述将图卷积特征矩阵通过线性变化得到矩阵,包括:;其中,是value矩阵,是用于生成value矩阵的可学习参数矩阵;所述和矩阵的每个头通过多尺度卷积神经网络得到多尺度和矩阵的每个头,包括:;;;其中,和分别是利用多尺度卷积神经网络处理所得到的多尺度query矩阵和key矩阵的第i个头,是卷积层数,是第k个卷积层的权重值,是第k个卷积层的可学习参数矩阵,是的输入矩阵,是第k个卷积层的偏置系数。
[0013]进一步的,所述对于多尺度和矩阵的每个头与矩阵执行自注意力机制,最后将各个头对应的自注意力结果拼接,得到自注意力特征矩阵,包括:;其中,是自注意力特征矩阵,T代表转置运算,是拼接函数,是归一化函数。
[0014]本申请提出的一种基于图卷积网络模型的面向概率电力负荷预测方法,利用具有双重卷积通道的网络模型分别处理不同的分解分量,以提高模型提取时序关联性信息的能力。在此基础上,提出了一种新的多尺度自注意力机制增强的图卷积网络,能够同时从地理和语义两个层面来全面提取空间关联性信息,以丰富感受野进而捕捉多尺度增强的空间特征,从而得到更优的预测结果。
附图说明
[0015]图1为本申请基于图卷积网络模型的面向概率电力负荷预测方法流程图。
[0016]图2为本申请构建的预测网络模型结构示意图。
[0017]图3为本申请实施例基于改进型STL分解的时空特征矩阵提取示意图。
[0018]图4为本申请实施例多尺度卷积神经网络示意图。
具体实施方式
[0019]为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅用以解释本申请,并不用于限定本申请。
[0020]实施例1:
[0021]图1提供了一种基于图卷积网络模型的面向概率电力负荷预测方法,包括:
[0022]步骤S1、将待预测区域的历史电力负荷序列数据分解为趋势分量、季节分量和残差分量,所述趋势分量和季节分量分别经过全局卷积通道,然后进行拼接得到全局时序特征矩阵,所述残差分量经过局部卷积通道得到局部时序特征矩阵。
[0023]本申请的目标是,获得一个可以利用G来预测的未来T时刻的负荷值的映射函数,如式(1)所示:(1);其中,是t时刻的时空特征矩阵,H是历史数据的长度,T是预测数据的长度。
[0024]为此构建了预测网络模型如图2所示,是一种基于改进型STL分解和多尺度自注意力机制增强的图卷积网络模型(简称MSGCN

ISTL)。
[0025]在训练网络模型时,输入序列数据采用一些现有的数据集。而在采用训练好的网络模型进行预测时,输入序列数据为待预测区域的历史电力负荷序列数据。
[0026]本实施例,首先对输入序列数据进行STL分解,输入序列数据经过STL分解为趋势分量、季节分量和残差分量。解过程如式(2)所示。
[0027](2);其中,是t时刻的输入序列数据,是趋势分量,是季节分量,是残差分量。
时间序列分解(STL)作为一种预处理方法,有利于降低输入序列数据的复杂性。STL分解是一种常用的时间序列分解方法,具有良好的鲁棒性。
[0028]各个分量在表示输入序列数据方面具有不同的重要性。其中,趋势分量有助于分析负荷数据的长期变化,季节性分量有助于分析负荷数据的周期性变化。残差分量包含的规律性信息较少,其在捕获数据时序特征方面的重要性低于其他两个分本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于图卷积网络模型的面向概率电力负荷预测方法,其特征在于,所述基于图卷积网络模型的面向概率电力负荷预测方法,包括:将待预测区域的历史电力负荷序列数据分解为趋势分量、季节分量和残差分量,所述趋势分量和季节分量分别经过全局卷积通道,然后进行拼接得到全局时序特征矩阵,所述残差分量经过局部卷积通道得到局部时序特征矩阵;采用门控机制对局部时序特征矩阵与全局时序特征矩阵进行处理,并经过全连接处理得到时空特征矩阵;将时空特征矩阵与自适应邻接矩阵通过堆叠的图卷积网络,得到图卷积特征矩阵;将图卷积特征矩阵通过线性变换得到自注意力机制的、和矩阵,然后执行自注意力机制得到自注意力特征矩阵;将自注意力特征矩阵与图卷积特征矩阵进行残差连接,然后进行归一化处理,得到预测负荷值矩阵。2.如权利要求1所述的基于图卷积网络模型的面向概率电力负荷预测方法,其特征在于,所述将图卷积特征矩阵通过线性变换得到自注意力机制的、和矩阵,然后执行自注意力机制得到自注意力特征矩阵,包括:将图卷积特征矩阵通过线性变化得到多头注意力机制的和矩阵,将图卷积特征矩阵通过线性变化得到矩阵,然后和矩阵的每个头通过多尺度卷积神经网络得到多尺度和矩阵的每个头,然后对于多尺度和矩阵的每个头与矩阵执行自注意力机制,最后将各个头对应的自注意力结果拼接,得到自注意力特征矩阵。3.如权利要求1所述的基于图卷积网络模型的面向概率电力负荷预测方法,其特征在于,所述全局卷积通道包括卷积层和全连接层。4.如权利要求1所述的基于图卷积网络模型的面向概率电力负荷预测方法,其特征在于,所述局部卷积通道包括卷积层、池化层和全连接层。5.如权利要求1所述的基于图卷积网络模型的面向概率电力负荷预测方法,其特征在于,...

【专利技术属性】
技术研发人员:何州裘一蕾陈细平宋小波陈卫强姚家渭
申请(专利权)人:杭州半云科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1