联邦学习方法、装置、电子设备和计算机可读存储介质制造方法及图纸

技术编号:37709402 阅读:20 留言:0更新日期:2023-06-02 00:00
本公开提供了一种联邦学习方法、装置、电子设备和计算机可读存储介质,涉及人工智能技术领域,尤其涉及联邦学习、图像处理等领域。具体实现方案为:基于本设备的当前模型进行参数优化,得到本地更新模型;基于多个邻居模型以及本地更新模型,得到新的当前模型;其中,多个邻居模型中的第一邻居模型是根据接收到的来自第一邻居设备的相关信息确定的;在多个邻居设备中进行随机选择,得到目标邻居设备;向目标邻居设备发送当前模型的相关信息。本公开降低了单一设备的工作量,且大幅减少了通信消耗。耗。耗。

【技术实现步骤摘要】
联邦学习方法、装置、电子设备和计算机可读存储介质


[0001]本公开涉及人工智能
,尤其涉及联邦学习、图像处理等领域。

技术介绍

[0002]近年来,联邦学习(Federated Learning,FL)取得了重大进展,它可以利用边缘设备上的分布式数据进行协作式模型训练。联邦学习通常利用分布式架构,在设备和集中式服务器之间传输梯度或模型,而不是原始数据,以解决安全或隐私问题。采用集中式服务器的分布式联邦学习会在服务器上产生严重的通信或计算工作量。

技术实现思路

[0003]本公开提供了一种联邦学习方法、装置、电子设备和计算机可读存储介质。
[0004]根据本公开的一方面,提供了一种联邦学习方法,包括:
[0005]基于本设备的当前模型进行参数优化,得到本地更新模型;
[0006]基于多个邻居模型以及本地更新模型,得到新的当前模型;其中,多个邻居模型中的第一邻居模型是根据接收到的来自第一邻居设备的相关信息确定的;
[0007]在多个邻居设备中进行随机选择,得到目标邻居设备;
[0008]向目标邻居设备发送当前模型的相关信息。
[0009]根据本公开的另一方面,提供了一种联邦学习装置,包括:
[0010]本地更新模块,用于基于本设备的当前模型进行参数优化,得到本地更新模型;
[0011]聚合模块,用于基于多个邻居模型以及本地更新模型,得到新的当前模型;其中,多个邻居模型中的第一邻居模型是根据接收到的来自第一邻居设备的相关信息确定的;r/>[0012]第一选择模块,用于在多个邻居设备中进行随机选择,得到目标邻居设备;
[0013]信息发送模块,用于向目标邻居设备发送当前模型的相关信息。
[0014]根据本公开的另一方面,提供了一种电子设备,包括:
[0015]至少一个处理器;以及
[0016]与该至少一个处理器通信连接的存储器;其中,
[0017]该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开实施例中任一的方法。
[0018]根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,该计算机指令用于使该计算机执行根据本公开实施例中任一的方法。
[0019]根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据本公开实施例中任一的方法。
[0020]本公开实施例通过去中心化的分散式FL以及随机发送模型,降低了单一设备的工作量,且大幅减少了通信消耗。
[0021]应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
[0022]附图用于更好地理解本方案,不构成对本公开的限定。其中:
[0023]图1是本公开实施例的联邦学习方法的示例性应用场景的示意图;
[0024]图2是根据本公开一实施例的联邦学习方法的流程示意图;
[0025]图3是本公开实施例中联邦学习方法的一个应用示例的示意图;
[0026]图4是本公开实施例中联邦学习方法的另一个应用示例的示意图;
[0027]图5是本公开实施例中联邦学习方法的又一个应用示例的示意图;
[0028]图6是本公开一实施例提供的联邦学习装置的示意性框图;
[0029]图7是本公开另一实施例提供的联邦学习装置的示意性框图;
[0030]图8是本公开另一实施例提供的联邦学习装置的示意性框图;
[0031]图9是本公开另一实施例提供的联邦学习装置的示意性框图;
[0032]图10是用来实现本公开实施例的联邦学习方法的电子设备的示意性框图。
具体实施方式
[0033]以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
[0034]为了便于理解本公开的技术方案,以下对本公开实施例的相关技术进行说明,以下相关技术作为可选方案与本公开实施例的技术方案可以进行任意结合,其均属于本公开实施例的保护范围。
[0035]分布式FL训练过程通常由多个边缘设备中的每个设备上的本地训练模型和服务器上的模型聚合组成。服务器可以选择可用的设备,并将全局模型广播给选定的设备。然后,每个选定设备根据设备内的本地数据更新模型,这被称为本地训练。在接收到来自选定设备的更新模型之后,服务器将其与全局模型汇总并生成一个新的全局模型,这被称为模型汇总或者模型聚合。
[0036]上述训练过程可以是同步的或异步的。在同步FL机制下,服务器在收到所有选定设备的更新模型后进行模型聚合。在异步FL机制下,服务器收到部分模型时,就可以进行模型聚合。由于边缘设备通常是异构的,具有不同的计算或通信能力,因此同步分布式FL的效率较低。而异步FL可能会导致较差的精度,甚至无法收敛在非独立同分布数据分布下。并且集中式FL在服务器上产生严重的通信或计算工作量,成为瓶颈,容易导致低效率和单点故障。特别是图像处理领域,图像或视频数据常分布在多个设备上,例如,用于目标检测的多个摄像头的视频数据分别由不同的边缘设备采集。通过FL协同训练图像处理模型,可使得各设备无需上传图像或视频数据,减少通信成本并保护用户的隐私数据。然而受限于分布式FL在服务器端产生的瓶颈,实际并不能达到期望的通信成本降低效果。
[0037]本公开实施例的联邦学习方法,用于解决上述技术问题中的至少一个。图1是本公开实施例的联邦学习方法的一个示例性的应用场景的示意图。如图1所示,FL环境中包括多个用于协作训练的电子设备110,图1中以设备0~设备7作为示例。电子设备110可以是终端、服务器、服务器集群或其他处理设备。其中,终端可以为个人计算机、移动设备、个人数
字助理(Personal Digital Assistant,PDA)、手持设备、车载设备、可穿戴设备等用户设备(User Equipment,UE)。服务器或服务器集群可以是云中心服务器或边缘服务器等。需要说明的是,在该FL环境中,各电子设备110在没有中央服务器的情况下实现协作训练过程。其中,各电子设备110可与邻居设备进行通信。根据本公开实施例的联邦学习方法,各电子设备110基于本地数据集进行本地模型更新,并在多个邻居设备中随机选择邻居设备进行模型的发送。例如图1的示例中,设备0可以与设备1、设备2以及设备4通信,并向设备2发送更新的模型;设备5可以与设备6、设备7以及设备1通信,并向设备1发送更新的模型。
[0038]可选地,在该FL环境中还包括协调器120。虽然部署有集中的协调器120本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种联邦学习方法,包括:基于本设备的当前模型进行参数优化,得到本地更新模型;基于多个邻居模型以及所述本地更新模型,得到新的当前模型;其中,所述多个邻居模型中的第一邻居模型是根据接收到的来自第一邻居设备的相关信息确定的;在多个邻居设备中进行随机选择,得到目标邻居设备;向所述目标邻居设备发送所述当前模型的相关信息。2.根据权利要求1所述的方法,其中,所述基于本设备的当前模型进行参数优化,得到本地更新模型,包括:基于所述当前模型对样本图像进行处理,得到图像处理结果;基于所述图像处理结果,确定所述当前模型对应的损失;基于所述损失,对本设备的当前模型进行参数优化,得到所述本地更新模型。3.根据权利要求1或2所述的方法,还包括:初始化多个邻居模型;响应于接收到来自所述第一邻居设备的相关信息,基于所述相关信息,更新与所述第一邻居设备对应的第一邻居模型。4.根据权利要求1

3中任一项所述的方法,还包括:将所述多个邻居模型存储在图形处理单元GPU的内存中;在所述GPU的内存达到预设条件的情况下,将所述多个邻居模型存储在本设备的内存中。5.根据权利要求1

4中任一项所述的方法,其中,所述基于多个邻居模型以及所述本地更新模型,得到新的当前模型,包括:对所述多个邻居模型中的至少部分模型以及所述本地更新模型进行聚合,得到新的当前模型。6.根据权利要求5所述的方法,还包括:基于优先权神经网络,确定所述多个邻居模型中各模型的选取概率;其中,所述优先权神经网络是基于启发式方式以及预设规则进行预训练得到的;根据所述各模型的选取概率,在所述多个邻居模型中选取所述至少部分模型。7.根据权利要求6所述的方法,还包括:基于所述当前模型对应的损失,对所述优先权神经网络进行参数优化。8.根据权利要求5

7中任一项所述的方法,其中,所述对所述多个邻居模型中的至少部分模型以及所述本地更新模型进行聚合,得到新的当前模型,包括:基于所述至少部分模型以及所述本地更新模型中各模型的训练信息,确定所述各模型的权重;基于所述各模型的权重,对所述至少部分模型以及所述本地更新模型进行聚合,得到新的当前模型。9.根据权利要求8所述的方法,其中,所述至少部分模型中的第二邻居模型的训练信息包括以下至少之一:所述第二邻居模型的模型更新次数与所述当前模型的模型更新次数之间的差异;所述第二邻居模型对应的损失;
所述第二邻居模型对应的样本数量。10.根据权利要求8或9所述的方法,其中,所述基于所述至少部分模型以及所述本地更新模型中各模型的训练信息,确定所述各模型的权重,包括:基于所述当前模型对应的损失,对控制变量进行更新;基于所述至少部分模型中的第二邻居模型的训练信息以及所述控制变量,确定所述第二邻居模型的权重。11.根据权利要求1

10中任一项所述的方法,还包括:基于所述当前模型的参数以及所述当前模型的训练信息,得到所述当前模型的相关信息。12.一种联邦学习装置,包括:本地更新模块,用于基于本设备的当前模型进行参数优化,得到本地更新模型;聚合模块,用于基于多个邻居模型以及所述本地更新模型,得到新的当前模型;其中,所述多个邻居模型中的第一邻居模型是根据接收到的来自第一邻居设备的相关信息确定的;第一选择模块,用于在多个邻居设备中进行随机选择,得到目标邻居设备;信息发送模...

【专利技术属性】
技术研发人员:刘吉马北辰窦德景
申请(专利权)人:北京百度网讯科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1