System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种面向电力数据的融合与分享方法及装置制造方法及图纸_技高网

一种面向电力数据的融合与分享方法及装置制造方法及图纸

技术编号:40559560 阅读:10 留言:0更新日期:2024-03-05 19:21
本发明专利技术属于隐私计算技术领域,提供了一种面向电力数据的融合与分享方法及装置,包括步骤:基于管理端发布的电力数据任务需求,在用户端根据任务需求和用户电力数据选择适用于电力大数据的模型;用户端在对所选择的模型进行训练时,将模型的梯度参数以秘密分享的方式传输至服务器端;服务器端对各个用户端上传的梯度参数完成聚合计算,并将聚合计算得到的结果返回给用户端以使用户端根据模型评价指标决策是否继续训练模型。本发明专利技术的优点在于在用户端本地进行更多的计算,可以通过降低通信频率实现更高效的参数交换过程,从而建立精确的用电量模型,以及保护了用户的隐私信息。

【技术实现步骤摘要】

本专利技术涉及隐私计算,尤其涉及一种面向电力数据的融合与分享方法及装置


技术介绍

1、随着分布式技术和边缘计算的发展,联邦学习受到了越来越多的关注和研究。联邦学习技术是指在中央服务器的协调下,多个客户端协作解决机器学习的问题。在这一过程中,保证每个客户端的原始数据都保存在本地,不进行交换或传输。利用联邦学习技术,多个客户端可以共同训练同一模型而无需上传原始数据集。参与者通过接收当前最新的全局模型并在本地利用自身的数据集对全局模型进行迭代训练。训练完成后,将得到的本地模型参数上传给中央服务器。中央服务器对接收到的模型参数聚合得到新一轮的全局模型参数。因此联邦学习中将整个机器学习流程分解为最小的模块化单元,通过数据最小化为参与的用户提供一定程度上的隐私保护。参与者将训练完成的模型参数提交给中央服务器而不是提交原始数据。这样一来,原始数据保留在参与者本地,在最大程度上防止参与者隐私泄露。同时,利用多方协同训练模型,比单独利用本地数据集训练模型更能提升模型性能。

2、凡是分布式场景下的深度学习,交换梯度都会导致大量的带宽消耗,这也是联邦学习面临的主要瓶颈之一。


技术实现思路

1、本专利技术要解决的技术问题目的在于提供一种面向电力数据的融合与分享方法及装置,用以解决联邦学习中产生的通信开销问题。

2、为了实现上述目的,本专利技术采用的技术方案为:

3、一种面向电力数据的融合与分享方法,包括步骤:

4、基于管理端发布的电力数据任务需求,在用户端根据任务需求和用户电力数据选择适用于电力大数据的模型;

5、用户端在对所选择的模型进行训练时,将模型的梯度参数以秘密分享的方式传输至服务器端;

6、服务器端对各个用户端上传的梯度参数完成聚合计算,并将聚合计算得到的结果返回给用户端以使用户端根据模型评价指标决策是否继续训练模型。

7、进一步的,所述用户端在对模型进行训练得到的梯度参数后,根据top-k梯度选择算法选出绝对值较大的多个梯度参数以秘密分享的方式上传至服务器端进行聚合计算。

8、进一步的,根据top-k梯度选择算法选出的梯度参数进行聚合计算的步骤包括:

9、在上传梯度参数至服务器端的同时上传梯度分享份额和梯度的索引信息;

10、服务器端在收到用户端上传的梯度分享份额后,根据索引信息将对应的份额根据秘密分享的加同态性质做密文聚合计算,进而得到聚合结果的秘密分享;

11、服务器端将聚合结果的秘密分享和用户端上传的索引信息的并集返回至用户端,以优化用户端模型。

12、进一步的,所述用户端在对模型进行训练得到的梯度参数后,对梯度参数进行三值量化后上传至服务器端。

13、进一步的,对于三值量化后的梯度参数拆解为两部分,将将部分分别以布尔分享方式上传至服务器端。

14、进一步的,在服务器端通过秘密分享转换分别将两部分的布尔秘密转化为算术秘密分享并分别进行数据密文计算,从而得到聚合结果。

15、进一步的,对于训练完成的模型在预测时,对模型中任意一层的输入输出结果进行秘密共享拆分,最后一层预测结果由用户端秘密共享重构。

16、本专利技术还提供了一种面向电力数据的融合与分享装置,其特征在于,包括至少一个处理器、以及至少一个存储器,其中,

17、存储器存储有计算机程序,当程序被所述处理器执行时,使得处理器能够执行上述的面向电力数据的融合与分享方法。

18、本专利技术与现有技术相比,至少包含以下有益效果:

19、(1)针对电网中设备计算能力弱,但以有线方式连接且不易掉线的特点,简单地将用户智能电表或区域性结点视为参与方,此时可以在保证用户隐私不泄露的情况下进行任务的协同实施,使之在本地进行更多的计算,可以通过降低通信频率实现更高效的参数交换过程。从而建立精确的用电量模型,以及用户全程没有向服务器暴露自己的数据集,与服务器的通信只包括梯度或模型信息,保护了用户的隐私信息;

20、(2)将top-k梯度选择和基于秘密分享的数据密文计算方案结合,从而进一步降低系统的通信和计算开销,优化系统性能;

21、(3)采用基于三值量化的优化方法,将传输的梯度量化到{-1,0,1}内,从而使用较少比特的信息传输量化后的梯度,减少训练中的通信开销;

22、(4)在模型预测中,通过防止回溯用户隐私信息的模型混淆输出,保护用户预测数据和服务提供商模型参数的条件下,完成神经网络预测过程;用户获得预测或分类结果的同时得不到服务端的任何隐私数据,同样服务端得不到有关用户的任何隐私数据。

本文档来自技高网...

【技术保护点】

1.一种面向电力数据的融合与分享方法,其特征在于,包括步骤:

2.根据权利要求1所述的一种面向电力数据的融合与分享方法,其特征在于,所述用户端在对模型进行训练得到的梯度参数后,根据Top-k梯度选择算法选出绝对值较大的多个梯度参数以秘密分享的方式上传至服务器端进行聚合计算。

3.根据权利要求2所述的一种面向电力数据的融合与分享方法,其特征在于,根据Top-k梯度选择算法选出的梯度参数进行聚合计算的步骤包括:

4.根据权利要求2所述的一种面向电力数据的融合与分享方法,其特征在于,所述用户端在对模型进行训练得到的梯度参数后,对梯度参数进行三值量化后上传至服务器端。

5.根据权利要求4所述的一种面向电力数据的融合与分享方法,其特征在于,对于三值量化后的梯度参数拆解为两部分,将将部分分别以布尔分享方式上传至服务器端。

6.根据权利要求5所述的一种面向电力数据的融合与分享方法,其特征在于,在服务器端通过秘密分享转换分别将两部分的布尔秘密转化为算术秘密分享并分别进行数据密文计算,从而得到聚合结果。

7.根据权利要求1所述的一种面向电力数据的融合与分享方法,其特征在于,对于训练完成的模型在预测时,对模型中任意一层的输入输出结果进行秘密共享拆分,最后一层预测结果由用户端秘密共享重构。

8.一种面向电力数据的融合与分享装置,其特征在于,包括至少一个处理器、以及至少一个存储器,其中,

...

【技术特征摘要】

1.一种面向电力数据的融合与分享方法,其特征在于,包括步骤:

2.根据权利要求1所述的一种面向电力数据的融合与分享方法,其特征在于,所述用户端在对模型进行训练得到的梯度参数后,根据top-k梯度选择算法选出绝对值较大的多个梯度参数以秘密分享的方式上传至服务器端进行聚合计算。

3.根据权利要求2所述的一种面向电力数据的融合与分享方法,其特征在于,根据top-k梯度选择算法选出的梯度参数进行聚合计算的步骤包括:

4.根据权利要求2所述的一种面向电力数据的融合与分享方法,其特征在于,所述用户端在对模型进行训练得到的梯度参数后,对梯度参数进行三值量化后上传至服务器端。

5.根据权利要求4...

【专利技术属性】
技术研发人员:董栋挺何战勇王晨明冯思思谢挺刘妮谢银儿
申请(专利权)人:宁波永耀电力投资集团有限公司招标咨询分公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1