当前位置: 首页 > 专利查询>湘潭大学专利>正文

一种基于Transformer的非侵入式负荷分解方法技术

技术编号:30164588 阅读:23 留言:0更新日期:2021-09-25 15:19
本发明专利技术公开一种家用电器的非侵入式负荷分解方法,特别涉及一种基于Transformer的非侵入式负荷分解方法。所述的方法主要包括以下步骤:采集用户电能消耗数据,运用自适应高斯滤波对原始功率信号进行处理,将处理后的数据分为训练集和测试集,利用训练集数据训练模型,将测试集中的用户负荷总功率数据输入到构建好的模型中进行测试,计算模型分解出的每个电器的分解精度。本发明专利技术中的Transformer能够实现并行计算,减少了模型训练时间,通过长距离依赖能将不同时刻的功率特征进行连接,使得模型在特征提取能力上有一定的提升,相较于其他的分解模型,本发明专利技术在一定程度上提高了负荷分解准确率。分解准确率。分解准确率。

【技术实现步骤摘要】
一种基于Transformer的非侵入式负荷分解方法


[0001]本专利技术涉及智能电网中的负荷监测,特别涉及一种基于Transformer的非侵入式负荷分解方法。

技术介绍

[0002]随着能源互联网的蓬勃发展,设备感知能力和通信能力快速增强,使得负荷监测的基础条件日趋成熟。同时,为应对能源供应短缺问题、开发能源效率,以及推进需求侧管理工作、管理居民用户侧负荷,负荷监测成为重要解决方案之一。通过负荷监测系统,我们能够了解用户各类负荷的实际能耗水平,实时掌握各类用户的用电情况和用电行为,有针对性的提出有序用电与需求响应方案并且引导用户合理安排用电时间,为用户提供节能建议或用电异常预警,为用户提供用户用电使用及偏好分析报告等,为政府能源总量控制、电力供需平衡和宏观政策制定等工作提供数据支撑,实现数据的增值与共享。其次,对于电网调度人员还可以以此作为电力系统规划和调度的依据,从而制定合理的发电计划,来提高电网利用率,减少电能的浪费。
[0003]近年来,随着机器学习、模式识别、组合优化等方法在多个领域的快速发展,非侵入式负荷分解技术迎来了新的突破。非侵入式负荷分解技术通过提取电器的特征来完成分解任务,但现有深度学习方法在负荷特征提取方面仍然不足,导致复杂状态的电器分解精度较低,小功率电器容易被大功率电器所掩盖,因此对特征提取的研究仍然有较大的研究空间。

技术实现思路

[0004]为了提高非侵入式负荷分解准确率,捕捉数据长期依赖关系,提高模型的特征提取能力,本专利技术提出了一种基于Transformer的非侵入式负荷分解方法。
[0005]本专利技术解决上述技术问题的技术方案是:
[0006]采集用户家庭电力总负荷数据,剔除数据中的异常点,对数据进行降噪处理;
[0007]构建负荷分解模型,将处理后的数据分为训练集和测试集,对训练集和测试集进行归一化处理,将归一化后的训练集数据输入到负荷分解模型中,训练负荷分解模型的参数;
[0008]将测试集数据输入到训练好的模型中,求取各个电器的分解功率,计算各个电器的功率分解精度。
附图说明
[0009]图1是自适应高斯滤波去噪流程图
[0010]图2是Transformer结构图
[0011]图3是编码器和解码器结构图
具体实施方案
[0012]下面结合附图对本专利技术的技术方案做进一步的详细说明:
[0013]步骤一:在用户总电力入口处安装监测装置,获取用户电能消耗数据,将获取的数据进行处理,滤除噪声点。
[0014]本专利技术通过自适应高斯滤波去噪,高斯滤波将高斯函数与原始信号进行卷积运算后输出滤波信号,表示如下:
[0015][0016]其一阶导数为:
[0017][0018]原始信号经过高斯滤波后的结果为:
[0019]N(t,σ)=f0(t)*g'(t,σ)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)
[0020]其中,g

(t,σ)为高斯滤波器,t为负荷数据,σ为高斯滤波器标准差,N(t,σ)为滤波后的结果,“*”为卷积运算符。
[0021]假设T为采样点时间,f(t)为历史负荷数据,f
k+1
(t)为第k+1次迭代平滑后滤波器的输出值,滤波窗口长度为2T,ω
k
(t+i,σ)为窗内各点的权值,则有:
[0022][0023]在高斯滤波器中引入自适应方法,有:
[0024][0025][0026]当ω
k
(t,σ)的值近似为0时,滤波器在满足去噪声效果的同时又能很好的保存突变点信息。
[0027]步骤二:对处理后的数据进行归一化处理,使得处理后的数据被限制在区间[0,1]之间,能使得模型在进行梯度下降时有更快的收敛速度,较少模型训练时间,归一化方法如下:
[0028][0029]式中:X
i
为归一化后的第i个功率数据,x
i
为归一化前的第i个功率数据,x
min
为归一化前的功率数据的最小值,x
max
为归一化前的功率数据的最大值。
[0030]步骤三:将归一化处理后的数据输入到负荷分解模型中进行训练,其中,模型加入
了L2正则化来防止训练模型过拟合。
[0031]Transformer模型注意力机制的核心是计算输入向量列表中每个样本与该向量中所有样本的关联关系,并利用这种相互关系在一定程度上体现不同样本的重要程度,通过这种关联程度调整每个样本的权重,从而获得一个更加全局的表达,不仅考虑到样本自身,同时还将其与其他样本的关系融入在内。
[0032]解码器使用注意力机制与编码器连接。通过这种方式,解码器可以学习在做出负荷分解之前“关注”时间序列历史值中最有用的部分。其中最重要的就是attention机制。
[0033]假设输入集为X={X1,X2,

,X
t
,X
t+1
,

},其中t为时间,编码器将输入集作为一个向量列表输入,经过存在依赖关系的各自路径进入注意力层,同时通过将向量中每个样本点积训练过程中创建的3个训练矩阵(W
Q
,W
K
,W
V
),为每个样本生成三个诠释向量,即查询向量(Q)、键向量(K)、值向量(V),注意力机制实现具体如下:
[0034]获取三个诠释向量,计算式分别表示为:
[0035][0036]利用Softmax函数进行标准化,并将标准化后的值与向量V进行点积运算,保证在保持对当前样本关注度不变的情况下,降低对不重要样本的关注度,获取自注意力机制输出,计算式表示为:
[0037][0038]式中Q、K、V均是通过训练得到的,而且对于同一层所有节点的K、Q、V计算,其转换矩阵的参数都是共享的。
[0039]Attention计算之后的输出Z表示加权后的结果,公式如下:
[0040][0041]公式(10)是Attention聚合其他节点信息的表达,其中n表示节点个数。经过求和与归一化操作后,经过前馈神经网络(FFN)传递参数。
[0042]FFN(x)=Relu(xW1+b1)W2+b2ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(11)
[0043]其中,前馈神经网络的激活函数为Relu,w和b表示网络的权值和偏置值。
[0044]为了防止模型参数过多导致训练阶段出现过拟合现象,加入L2正则化,L2正则化公式非常简单,在原来的损失函数基础上加上权重系数的平方和:
[0045][0046]其中,E
in
是未包含正则化项的训练样本误差,λ是可调的正则化参数。
[0047]步骤四:将测试集数据中的总电表功率数据输入到训练好的模型中,分解模型输出单个电器的分解功率值,画出分解功率值和真实值的功率曲线图。...

【技术保护点】

【技术特征摘要】
1.一种基于Transformer的非侵入式负荷分解方法,主要包括以下步骤:采集用户家庭电力总负荷数据,剔除数据中的异常点,对数据进行降噪处理;构建负荷分解模型,将处理后的数据分为训练集和测试集,对训练集和测试集进行归一化处理,将归一化后的训练集数据输入到负荷分解模型中,训练负荷分解模型的参数;将测试集数据输入到训练好的模型中,求取各个电器的分解功率,计算各个电器...

【专利技术属性】
技术研发人员:熊志刚陈才学欧阳港彭暄惠
申请(专利权)人:湘潭大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1