一种基于迁移学习的配电网时变拓扑状态估计方法技术

技术编号:35111189 阅读:36 留言:0更新日期:2022-10-01 17:25
本发明专利技术公开了一种基于迁移学习的配电网时变拓扑状态估计方法,先采集几种有代表性的源拓扑量测数据以及对应状态数据信息,进行数据预处理,以满足神经网络的输入需求;然后构建深度残差神经网络对源拓扑状态估计,得到多个深度残差网络模型。然后采集新拓扑少量数据,利用贝叶斯岭回归方法进行训练确定组合模型权重,来实现对新拓扑进行状态估计。来实现对新拓扑进行状态估计。来实现对新拓扑进行状态估计。

【技术实现步骤摘要】
一种基于迁移学习的配电网时变拓扑状态估计方法


[0001]本专利技术属于配电网状态估计
,更为具体地讲,涉及一种基于迁移学习的配电网时变拓扑状态估计方法。

技术介绍

[0002]配电网作为保障用户用电安全的关键环节,随着分布式能源大规模接入,以及电动汽车等新型负荷的占比增加,造成“源—荷”的不确定性问题日渐严峻。配电网馈线开关动作更加频繁,导致配电网网络结构发生变化。而在历史数据库中难以包含所有拓扑数据信息。当拓扑发生改变时,新拓扑下已知数据很少,传统的依靠历史数据进行训练的数据驱动方法会造成过拟合。因此,需要专利技术一种能够弥补由于新拓扑样本数据少造成的状态估计困难问题。
[0003]状态估计方法分为基于物理模型方法和数据驱动方法。传统物理模型以WLS为代表通过拓扑结构以及参数信息构建量测方程,通过高斯牛顿迭代法求得方程的最优解,即为待估计的状态量。但在实际应用中,配电网的拓扑结构参数信息通常会发生改变,造成估计结果失准。
[0004]数据驱动方法通过分析历史数据的时空关联特性,进而建立多断面数据驱动模型,能够有效提高状态估计的精度和收敛性。因此,基于数据驱动的状态估计方法已成为当前状态估计领域的研究热点。但数据驱动模型往往需要大量历史数据进行训练,而当拓扑发生突变时,新拓扑可利用信息较少,传统数据驱动会造成过拟合,难以达到准确结果。

技术实现思路

[0005]本专利技术的目的在于克服现有技术的不足,提供一种基于迁移学习的配电网时变拓扑状态估计方法,通过贝叶斯岭回归迁移学习器实现拓扑时变下数据集较少情况下的配电网状态估计。
[0006]为实现上述专利技术目的,本专利技术一种基于迁移学习的配电网时变拓扑状态估计方法,其特征在于,包括以下步骤:
[0007](1)、采集源拓扑历史量测数据;
[0008]将配电网已知拓扑作为源拓扑,然后采集源拓扑中各个节点在不同时刻t的量测数据和状态数据,其中,量测数据包括:节点注入有功功率P
i
(t)和无功功率Q
i
(t),部分支路流入的有功功率P
ij
(t)和无功功率Q
ij
(t),其中,t=1,2,

,T,T为采样时刻数,i,j表示源拓扑中的节点;状态数据包括:电压V(t)和相角
[0009](2)、构建训练数据集;
[0010]将量测数据{P
i
(t),Q
i
(t),P
ij
(t),Q
ij
(t)}和状态数据进行归一化处理,然后对归一化的数据随机添加20%的误差,从而构成训练数据集;
[0011](3)、构建源拓扑状态估计模型;
[0012]将k个并联的深度残差神经网络模型作为源拓扑状态估计模型,其中每一个深度残差神经网络模型均由输入层、整形层、若干残差块和输出层串行连接组成;
[0013]假设共有2n个残差块,每相邻两个残差块通过外部添加跳跃连接方式等效成一个扩展残差块,具体连接方式为:从第l个残差块开始,第l个残差块的输入与第l+1个残差块的输出相加取均值作为第l+2个残差块的输入;第l+2个残差块的输入与第l+3个残差块的输出相加取均值作为第l+4个残差块的输入;然后以此类推,其余残差块依旧保持串行连接,即第l+1个残差块的输入为第l个残差块的输出,第2n个残差块的输出与第2n

1个残差块的输入,以及第一个残差块的输入共同相加取均值再经过Dropout和整形层然后输出估计值;其中,l=1,3,5,

,2n

1,n为自然数;
[0014](4)、离线训练源拓扑状态估计模型
[0015](4.1)、在训练数据集中依次将一批次中不同时刻的量测数据和状态数据通过输入层同时输入至k个深度残差神经网络模型,在每一个深度残差神经网络模型内,通过整形层提取数据特征,并映射到高维空间转为张量形式输入至串联的残差块;
[0016](4.2)、在串联的残差块中,遍历每一个残差块,其中第一个残差块的输入是由整形层直接输入,当流经第i个残差块时,i=3,5,

,2n

1,将第i

2个残差块的输入张量为x
(i

3)
,与第i

1个残差块的输出张量相加取均值,得到第i个残差块的输入张量Average表示均值运算;
[0017]输入张量x
(i

1)
进入第i个残差块后分为两条支路,在第i个残差块的左侧支路中,输入张量x
(i

1)
经过全连接层提取特征,然后经过权重归一化、ReLU激活函数,再经过第二层全连接层后进行权重归一化,得到左侧分支的输出张量F(x
(i

1)
);在右侧支路中,输入张量x
(i

1)
直接与左侧支路的输出张量F(x
(i

1)
)相加,再经过激活函数得到第i个残差块的输出Activation表示求和运算;
[0018]当流经第j个残差块时,j=2,4,6,

,2n,第j个残差块的输入为第j

1个残差块的输出张量
[0019]当遍历到最后一个残差块即第2n个残差块时,第2n个残差块的输出与第2n

1个残差块的输入,以及第一个残差块的输入共同相加取均值再经过Dropout,整形层然后输出状态数据估计值;
[0020](4.3)、计算平均绝对误差MAE和平均绝对百分比误差MAPE作为损失函数值;
[0021][0022][0023]其中,m为每一批次中训练数据样本个数,z
i
为训练数据集中输入的状态数据的真实值,为深度残差神经网络模型预测的状态数据估计值;
[0024](4.4)、判断k个深度残差神经网络模型的损失函数值MAE和MAPE是否同时满足预设阈值,如果满足,则迭代停止,得到k个训练完成的深度残差神经网络模型;否则,采用
Adam优化器优化网络参数,再返回步骤(4.1),进行下一轮训练,直至k个深度残差神经网络模型都收敛;
[0025](5)、源拓扑状态估计模型的迁移学习;
[0026](5.1)、采集新拓扑的小样本数据,包括量测数据以及状态数据,构建输入数据x
target

[0027](5.2)、将输入数据x
target
输入到源拓扑状态估计模型中,得到k个状态数据估计值Z=(z1,z2,

,z
i
,

,z
k
),z
i
表示第i个深度残差神经网络输出的状态数据估计值;
[0028](5.3)、将本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于迁移学习的配电网时变拓扑状态估计方法,其特征在于,包括以下步骤:(1)、采集源拓扑历史量测数据;将配电网已知拓扑作为源拓扑,然后采集源拓扑中各个节点在不同时刻t的量测数据和状态数据,其中,量测数据包括:节点注入有功功率P
i
(t)和无功功率Q
i
(t),部分支路流入的有功功率P
ij
(t)和无功功率Q
ij
(t),其中,t=1,2,

,T,T为采样时刻数,i,j表示源拓扑中的节点;状态数据包括:电压V(t)和相角(2)、构建训练数据集;将量测数据{P
i
(t),Q
i
(t),P
ij
(t),Q
ij
(t)}和状态数据进行归一化处理,然后对归一化的数据随机添加20%的误差,从而构成训练数据集;(3)、构建源拓扑状态估计模型;将k个并联的深度残差神经网络模型作为源拓扑状态估计模型,其中每一个深度残差神经网络模型均由输入层、整形层、若干残差块和输出层串行连接组成;假设共有2n个残差块,每相邻两个残差块通过外部添加跳跃连接方式等效成一个扩展残差块,具体连接方式为:从第l个残差块开始,第l个残差块的输入与第l+1个残差块的输出相加取均值作为第l+2个残差块的输入;第l+2个残差块的输入与第l+3个残差块的输出相加取均值作为第l+4个残差块的输入;然后以此类推,其余残差块依旧保持串行连接,即第l+1个残差块的输入为第l个残差块的输出,第2n个残差块的输出与第2n

1个残差块的输入,以及第一个残差块的输入共同相加取均值再经过Dropout和整形层然后输出估计值;其中,l=1,3,5,

,2n

1,n为自然数;(4)、离线训练源拓扑状态估计模型(4.1)、在训练数据集中依次将一批次中不同时刻的量测数据和状态数据通过输入层同时输入至k个深度残差神经网络模型,在每一个深度残差神经网络模型内,通过整形层提取数据特征,并映射到高维空间转为张量形式输入至串联的残差块;(4.2)、在串联的残差块中,遍历每一个残差块,其中第一个残差块的输入是由整形层直接输入,当流经第i个残差块时,i=3,5,

,2n

1,将第i

2个残差块的输入张量为x
(i

3)
,与第i

1个残差块的输出张量相加取均值,得到第i个残差块的输入张量Average表示均值运算;输入张量x
(i

1)
进入第i个残差块后分为两条支路,在第i个残差块的左侧支路中,输入张量x
(i

1)
经过全连接层提取特征,然后经过权重归一化、ReLU激活函数,再经过第二层全...

【专利技术属性】
技术研发人员:衣荟衡唐远鸿赵玲玲韩雨伯张真源任曼曼胡维昊黄琦
申请(专利权)人:电子科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1