【技术实现步骤摘要】
新型联邦学习系统、方法、装置、计算机设备及存储介质
[0001]本专利技术涉及联邦学习领域,尤其涉及一种新型联邦学习系统、方法、装置、计算机设备及存储介质。
技术介绍
[0002]联邦学习(Federated Learning)是由google在2016年首次提出的技术,意指通过联合多个参与方从分散和孤立的数据中,共同训练机器学习模型。在FL系统中,各个参与方的数据始终不离开本地拥有者,同时模型相关信息以加密方式(差分隐私、加密算法等)在各方之间进行传输和交换,并且任意一方都不能推测出其他方的原始数据,目前联邦学习已经在金融大数据、数字健康、智慧交通、计算机视觉、个性化推荐等领域得到了广泛的发展。
[0003]在实际应用中,目前比较流行的联邦学习架构有基于Google的TensorFlow Federated(TFF)、基于微众银行的Federated AI Technology Enabler(FATE)、基于英伟达的NVidia Clare、基于百度的PaddleFL等。
[0004]现有的工业级联邦学习 ...
【技术保护点】
【技术特征摘要】
1.一种新型联邦学习系统,其特征在于,所述新型联邦学习系统为虚拟化联邦学习系统,所述虚拟化联邦学习系统包括动态虚拟协调服务器、至少两个边缘设备节点,所述动态虚拟协调服务器用于控制所述边缘设备节点的指令接收、请求发送和节点选择,所述边缘设备节点用于进行参数传播、模型聚合、模型更新。2.一种联邦学习方法,其特征在于,所述联邦学习方法应用于权利要求1所述的新型联邦学习系统,包括:获取用户指令和训练模型,其中,所述用户指令和所述训练模型预先部署在第一边缘设备节点上;基于所述用户指令和所述训练模型生成训练任务样本,并采用动态虚拟协调服务器,将所述训练任务样本发送至第二边缘设备节点,其中,所述动态虚拟协调服务器用于控制所述第一边缘设备节点和所述第二边缘设备节点;基于所述训练任务样本,采用每个所述第二边缘设备节点对所述第二边缘设备节点对应的本地训练模型进行训练,得到每个所述第二边缘设备节点的模型参数;基于所有所述模型参数,所述第一边缘设备节点对所述训练模型进行聚合处理,并根据处理得到的模型更新所述训练模型。3.根据权利要求2所述的方法,其特征在于,在所述获取用户指令和训练模型的步骤之前,所述方法还包括:基于分布式散列表算法,获取第一边缘设备节点和第二边缘设备节点。4.根据权利要求2所述的方法,其特征在于,在所述基于所有所述模型参数,所述第一边缘设备节点对所述训练模型进行聚合处理,并根据处理得到的模型更新所述训练模型之前,所述方法还包括:基于动态虚拟协调服务器,获取与所述第二边缘设备节点的相邻设备,作为待传播设备节点;基于异步传播方式和所述训练任务样本,采用每个所述待传播设备节点对所述待传播设备节点对应的本地训练模型进行训练,得到每个所述待传播设备节点的模型参数。5.根据权利要求2所述的方法,其特征在于,基于所述训练任务样本,采用每个所述第二边缘设备节点对所述第二边缘设备节点对应的本地训练模型进行训练,得到每个所述第二边缘设备节点的模型参数的步骤包括:基于所述训练任务样本,采用每个所述第二边缘设备节点对所述第二边缘设备节点对应的本地训练模型进行训练,并根据训练得到...
【专利技术属性】
技术研发人员:陈晓红,徐雪松,许冠英,胡东滨,郭泰彪,
申请(专利权)人:湖南红普创新科技发展有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。