【技术实现步骤摘要】
优化深度Transformer网络的风电功率预测方法及系统
[0001]本专利技术属于电力系统规划领域,更具体地,涉及一种基于鲸群算法优化深度Transformer网络的风电功率预测方法及系统。
技术介绍
[0002]由于化石燃料的短缺,环境污染和温室效应问题变得越来越严重,可再生能源的开发和利用已逐渐引起全世界的关注。风能是一种清洁能源,具有巨大的储量和较高的发展潜力。风力发电是风能利用的主要形式之一,近年来受到研究者的越来越多的关注。当将风能大规模用于发电时,必须预测风电功率以确保电网的可靠性,稳定性和经济性。风力发电预测是风电场整合必不可少的关键环节,可以为电力系统的发电、调度和维护提供有效依据。准确的预测结果将大大降低风电并网带来的调峰压力,减少对电网的影响,从而确保电网的安全运行。因此,风电功率预测的研究具有重要的现实意义。风能的随机性和波动性特征使风力发电的输出功率不稳定,这增加了风电功率预测的研究难度。深度学习方法具有强大的数据挖掘功能,并已引起广泛关注。风能数据是长程相关性的时间序列且该序列存在多种长度的复杂 ...
【技术保护点】
【技术特征摘要】
1.一种优化深度Transformer网络的风电功率预测方法,其特征在于,包括:将收集到的风电功率及其相关影响因素的序列数据作为样本数据;对所有的样本数据进行最大最小的归一化处理,并将归一化处理后的样本数据划分为训练集和测试集;初始化Transformer网络参数,设置待优化Transformer网络中的超参数的取值范围及搜索范围,确定鲸群的最大迭代次数和种群规模;根据初始化的Transformer网络中超参数的取值建立Transformer网络模型,对训练集和测试集中的数据分别进行训练和预测,且将风电功率预测的平均绝对误差作为各鲸群的适应度值;根据鲸群个体的初始适应度值确定其局部最优位置,利用鲸群寻优更新当前最优位置,通过比较局部与全局的最优解来获得最好的预测效果;经过鲸群算法WOA的若干次迭代后获得最优的Transformer网络中超参数组合,并利用最优参数构建WOA
‑
Transformer风电功率预测模型,以对风电功率进行预测。2.根据权利要求1所述的方法,其特征在于,所述经过鲸群算法WOA的若干次迭代后获得最优的Transformer网络中超参数组合,包括:将Transformer中的超参数作为鲸群中的个体,并对鲸群进行初始化,利用随机数生成器自动产生Transformer中的超参数的初始解;若随机参数p的值小于第一预设值,则判断系数向量|A|是否小于第二预设值,若系数向量|A|小于第二预设值,则选择收缩包围捕食机制,根据A=2a
·
r
‑
a,C=2r和更新个体位置,若系数向量|A|不小于第二预设值,则选择搜索捕食机制,根据更新个体位置,其中,a是当前迭代次数j对应的常数,a是迭代过程中常数a构成的矩阵,M为最大迭代次数,r为随机向量且r∈[0,1],X
rand
表示当前座头鲸种群中随机位置向量,X
rand,j
表示X
rand
中的第j个数据;若随机参数p的值不小于第一预设值,则选择螺旋捕食机制,根据更新个体位置,其中,X
j
、X
j+1
和X
j*
分别表示鲸群的当前位置、下一个时刻的位置和最佳位置,D'表示第i个鲸的当前最佳位置与最优值的空间距离,b为对数螺旋常数,l为随机数且l∈[
‑
1,1];计算鲸群中所有个体的适应度值,并更新全局最优值,经过鲸群算法WOA的若干次迭代后获得最优的Transformer网络中超参数组合。3.根据权利要求1或2所述的方法,其特征在于,所述Transformer网络模型包括编码器和解码器组成,其中,编码器由输入层、位置编码层和若干个相同的编码器层堆叠而成,输入层通过全连接层将输入的数据映射成多维的向量,位置编码层将输入向量与位置编码向量逐元素相加所得的向量被馈送到各编码器层,每个编码器层均包含两个子层:一个自注意力层和一个全连接的前馈层,每个子层之后是归一化层,由编码器产生的多维向量被馈
送到解码器;解码器是由输入层、若干个相同的解码器层和一个输出层堆叠而成,输入层将解码器的输入映射成多维的向量,每个解码器层中除了含有编码器层中的两个子层之外,还插入一个编码
‑
解码注意力层,来对编码器的输出应用自我注意力机制,输出层含有单个神经元,由输出层将最后一个解码器层的输出映射得到风电功率预测的值。4.根据权利要求3所述的方法,其特征在于,所述利用最优参数构建WOA
‑
Transformer风电功率预测模型,以对风电功率进行预测,包括:在利用N个时间点的数据来预测第N+1个时间点的风电功率时,需要将N个时间点的多维特征向量,其中,该多维特征向量为风电功率的相关影响因素组成的时间序列,通过编码器输入层中的全连接网络映射成时间序列,然后经过位置编码层来对时间序列的顺序信息进行编码,序列编码后进入编码器层中的自注意力层使得编码器能关注当前编码序列以外的其他编码序列的信息,并经过神经网络前馈层保留序列的信息,编码后的时间序列共经过若干个编码器层最后被馈送到解码器;同时将N个时间点对应的风电功率时间序列通过解码器输入层映射成时间序列,进入解码器层中的编码
‑
解码注意力层用来关注编码器和解码器中序列的相关性信息;特征向量和风电功率的时间序列经过整个Transformer网络学习后,最后通过含有一个神经元的全连接层得到解码器输出即为第N+1的时间点风电功率的预测值。5.一种优化深度Transf...
【专利技术属性】
技术研发人员:何怡刚,汪磊,赵莹莹,向铭,李猎,何鎏璐,杜博伦,
申请(专利权)人:武汉大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。