基于多层Bi-GRU的Seq2seq网络短期电力负荷预测方法技术

技术编号:18290085 阅读:71 留言:0更新日期:2018-06-24 05:02
本发明专利技术公开了一种基于多层Bi‑GRU的Seq2seq网络短期电力负荷预测方法,利用FCM方法提取相似日样本并通过Min‑max标准化方法对输入变量进行标准化,以Bi‑GRU神经元为基本单位构建多层次Seq2seq神经网络结构,同时选用SELU激活函数作为整个神经网络的输出层激活函数以减少梯度消失和梯度爆炸,实现整体模型在训练过程中平稳运行。

【技术实现步骤摘要】
基于多层Bi-GRU的Seq2seq网络短期电力负荷预测方法
本专利技术涉及一种基于多层Bi-GRU的Seq2seq网络短期电力负荷预测方法。
技术介绍
电力工业中,短期电力负荷预测主要用于安排电力系统发电组合,优化负荷调度。准确的负荷预测是保证电网供需平衡的关键,也是确保电网安全稳定经济运行的重要前提。根据预测结果,发电计划可以得到合理安排,从而能够使系统在安全范围内保持必要的运行费用最小。传统的短期电力负荷预测法主要有回归分析法、趋势外推法、专家系统法和时间序列法等。其中:趋势外推法和回归分析法主要适用于负荷数据中存在着明显的变化趋势且负荷数据变化比较平稳的情况;专家系统法需要借用专家的主观经验,个体差异较大;时间序列方法则只考虑了负荷本身的自相关关系,而忽视了对负荷影响因素的深入分析。此外,由于短期负荷数据中存在着明显的波动性和随机性,传统的预测方法往往无法做到准确预测。随着机器学习、大数据分析和高效计算技术的发展,目前常用的短期电力负荷预测方法主要有支持向量机、人工神经网络模型等。近年来,LSTM(LongShortTimeMemory,LSTM)等具有循环网络结构的深度学习模型在自然语言处理、图像识别等领域取得了一系列成果,其预测精度和可靠性得到了显著提升。通过引入输入门、遗忘门和输出门,LSTM减轻了传统RNN在长时间序列中的梯度消失问题,从而在序列预测领域中得到应用。此外,LSTM模型也广泛应用于能源需求预测中,DanielM,KasunA和MilosM比较了标准LSTM模型与基于LSTM的Seq2seq网络的短期电力负荷预测精度。ZhengHT,YuanJB和ChenL给出了一个通用的框架,其将相似日选择、经验模式分解和LSTM模型相结合来进行预测短期负荷。GRU模型于2014年提出。已有研究结果显示,GRU的性能与LSTM相当,但计算效率更高,参数更少。但上述算法都存在预测精度低、过程复杂的缺点。
技术实现思路
本专利技术为了解决上述问题,提出了一种基于多层Bi-GRU的Seq2seq网络短期电力负荷预测方法,本专利技术能够提高预测精度。为了实现上述目的,本专利技术采用如下技术方案:一种基于多层Bi-GRU的Seq2seq网络短期电力负荷预测方法,利用FCM方法提取相似日样本并通过Min-max标准化方法对输入变量进行标准化,以Bi-GRU神经元为基本单位构建多层次Seq2seq神经网络结构,同时选用SELU激活函数作为整个神经网络的输出层激活函数以减少梯度消失和梯度爆炸,实现整体模型在训练过程中平稳运行。进一步的,使用FCM计算样本在不同簇中的隶属度,根据隶属度水平对样本进行分类,分到同类的样本可以被归类为具有相似水平较高的样本。进一步的,将已经分类完毕的数据划分为训练集数据和测试集数据,对数据运用Min-max方法标准化。使用Min-max方法来对输入数据进行标准化,标准化的范围为[0,1]。使用多层Bi-GRU的Seq2seq网络模型对标准化后的训练数据进行训练,并把标准化后的测试集数据带入训练完毕的模型中进行预测,然后反向变化后得出最终预测结果。训练过程中,使用随机梯度下降法对模型的参数进行优化。进一步的,多层Bi-GRU的Seq2seq网络模型结构包括编码端部分和解码端部分,编码端由多层Bi-GRU组成,对输入数据进行编码,并在网络的末端输出编码后的最终状态;解码端则由单层GRU组成,接受来自编码段的最终状态作为初始输入状态,同时以每一步的输出值作为下一步的输入值。与现有技术相比,本专利技术的有益效果为:本专利技术在引入了Bi-GRU单元的同时,用Seq2seq结构网络对数据进行学习挖掘。此外,SELU激活函数的引入也使整个网络的训练过程能够平稳进行,提高了模型的学习效率和预测水平。与结构相对简单的GRU模型相比,多层Bi-GRU的Seq2seq模型具有更好的鲁棒性和预测准度。从实际应用来看,模型还可以应用于供热预测和新能源发电预测等多领域中。附图说明构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。图1为GRU结构示意图;图2为Bi-GRU结构示意图;图3为多层Bi-GRU的Seq2seq网络结构示意图;图4为多层Bi-GRU的Seq2seq网络模型预测过程示意图;图5为不同模型的训练误差结果;图6为不同模型的负荷预测结果;具体实施方式:下面结合附图与实施例对本专利技术作进一步说明。应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本专利技术使用的所有技术和科学术语具有与本申请所属
的普通技术人员通常理解的相同含义。需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。在本专利技术中,术语如“上”、“下”、“左”、“右”、“前”、“后”、“竖直”、“水平”、“侧”、“底”等指示的方位或位置关系为基于附图所示的方位或位置关系,只是为了便于叙述本专利技术各部件或元件结构关系而确定的关系词,并非特指本专利技术中任一部件或元件,不能理解为对本专利技术的限制。本专利技术中,术语如“固接”、“相连”、“连接”等应做广义理解,表示可以是固定连接,也可以是一体地连接或可拆卸连接;可以是直接相连,也可以通过中间媒介间接相连。对于本领域的相关科研或技术人员,可以根据具体情况确定上述术语在本专利技术中的具体含义,不能理解为对本专利技术的限制。本专利技术提出了多层Bi-GRU的Seq2seq网络短期电力负荷预测模型。该模型首先运用FCM方法提取相似日样本并通过Min-max标准化方法对输入变量进行标准化。其次,以Bi-GRU神经元为基本单位构建多层次Seq2seq神经网络结构,同时选用SELU激活函数作为整个神经网络的输出层激活函数以减少梯度消失和梯度爆炸,确保整体模型在训练过程中平稳运行。模型应用于山东省某地区2016年9月1日至2017年5月31日15分钟电力负荷进行训练,并对未来一定时间段内的电力负荷进行预测。结果表明,本方法与简单GRU网络模型和基于单层GRU的Seq2seq网络模型相比,预测精度得到提高。相似日数据提取选取FCM提取相似日数据。与K-means算法相比,在FCM中,某个数据不仅局限于某一个特定的簇,而是可以根据不同的隶属度分别隶属于多个簇。给定含有n个元素的数据集X={x1,x2,x3,…,xn},其需要被分解成c个模糊簇,那么FCM就是要最小化目标函数:其中:m是任意大于1的实数;uij是xi隶属于第j个簇的隶属度;xi是集合X中第i个元素,其维度为d维;cj是第j个簇的中心;||…||是计算数据与簇中心距离的算法。这里,FCM是通过对上述目标函数进行不断的迭代优化隶属度uij和簇中心cj来完成的,迭代表达式为:令ε为迭代过程的阈值,当满足时,迭代过程结束。上述过程被认为收敛到局部最小值点J。文中阈值设置为ε=0.5,类别设置为c=5。相似日数据提取由于输入数据的不同本文档来自技高网
...
基于多层Bi-GRU的Seq2seq网络短期电力负荷预测方法

【技术保护点】
1.一种基于多层Bi‑GRU的Seq2seq网络短期电力负荷预测方法,其特征是:利用FCM方法提取相似日样本并通过Min‑max标准化方法对输入变量进行标准化,以Bi‑GRU神经元为基本单位构建多层次Seq2seq神经网络结构,同时选用SELU激活函数作为整个神经网络的输出层激活函数以减少梯度消失和梯度爆炸,实现整体模型在训练过程中平稳运行。

【技术特征摘要】
1.一种基于多层Bi-GRU的Seq2seq网络短期电力负荷预测方法,其特征是:利用FCM方法提取相似日样本并通过Min-max标准化方法对输入变量进行标准化,以Bi-GRU神经元为基本单位构建多层次Seq2seq神经网络结构,同时选用SELU激活函数作为整个神经网络的输出层激活函数以减少梯度消失和梯度爆炸,实现整体模型在训练过程中平稳运行。2.如权利要求1所述的一种基于多层Bi-GRU的Seq2seq网络短期电力负荷预测方法,其特征是:使用FCM计算样本在不同簇中的隶属度,根据隶属度水平对样本进行分类,分到同类的样本可以被归类为具有相似水平较高的样本。3.如权利要求1所述的一种基于多层Bi-GRU的Seq2seq网络短期电力负荷预测方法,其特征是:将已经分类完毕的数据划分为训练集数据和测试集数据,对数据运用Min-max方法标准化。4.如权利要求1所述的一种基于多层Bi-GRU的Seq2seq网络短期电力负荷预测方法,其特征是:...

【专利技术属性】
技术研发人员:路宽苏建军赵岩毕贞福王昕孟祥荣高嵩孙雯雪庞向坤赵阳王文宽李军韩英昆于庆彬姚长青李克雷颜庆
申请(专利权)人:国网山东省电力公司电力科学研究院国家电网公司
类型:发明
国别省市:山东,37

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1