当前位置: 首页 > 专利查询>天津大学专利>正文

基于联邦学习和神经架构搜索的云边协同训练方法及系统技术方案

技术编号:37508789 阅读:12 留言:0更新日期:2023-05-07 09:48
本发明专利技术公开了一种基于联邦学习和神经架构搜索的云边协同训练方法及系统,包括:基于P个残差网络构建包含若干网络的搜索空间;收集图像构建包括训练集和验证集的样本集;基于策略梯度的强化学习方法对搜索空间中的网络进行训练得到优化网络,根据验证精度和模型大小设奖励函数选取最优子模型;中心服务器在最优子模型的每一层网络的后方添加分支分类网络作出口,形成含若干个分支模型的退出点模型;将分支模型分配给边缘设备训练得到退出点本地模型,中心服务器利用联邦学习对训练后的退出点本地模型聚合,以最小化总损失函数和最大化验证精度为目标对退出点模型更新。本发明专利技术通过选择适当的分支模型部署在不同边缘设备上,提高了模型可重用性。提高了模型可重用性。提高了模型可重用性。

【技术实现步骤摘要】
基于联邦学习和神经架构搜索的云边协同训练方法及系统


[0001]本专利技术属于神经网络
,具体涉及一种基于联邦学习和神经架构搜索的云边协同训练方法及系统。

技术介绍

[0002]近年来,随着边缘计算的发展,深度神经网络被部署在不同的边缘设备上,然而由于边缘设备的异构性,需要设计一系列模型结构。为了实现设计的自动化,一些方法使用神经架构搜索(Neural Architecture Search,NAS)方法构建模型,从而减少了人力和计算资源。为了保护数据隐私,联邦学习(Federated Learning,FL)可以在不泄漏数据的情况下对边缘环境中的模型进行协同训练。但是将神经架构搜索和联邦学习相结合的方案还处于起步阶段,在集中的搜索过程结合云边协同的训练过程中会出现一些技术问题。比如:不同设备上的模型是异构的,传统的联邦学习只能聚合相同结构的模型,针对结构不同的模型没有特定的聚合策略。
[0003]针对上述问题,利用基于联邦学习的神经架构搜索方法,自动搜索多退出模型,为设备提供异构的模型,并针对异构模型设计协同训练的聚合策略,为边缘场景中实现异构、高效、可复用的训练框架提供有效的解决方案亟待解决。

技术实现思路

[0004]针对以上问题,本专利技术提出了一种基于联邦学习和神经架构搜索的云边协同训练方法及系统。为解决以上技术问题,本专利技术所采用的技术方案如下:
[0005]一种基于联邦学习和神经架构搜索的云边协同训练方法,包括如下步骤:
[0006]S1,基于P个残差网络构建包含若干个网络的搜索空间,且P≥2;
[0007]S2,收集图像数据构建样本集,将所述样本集划分为训练集和验证集;
[0008]S3,采用基于策略梯度的强化学习方法利用训练集对搜索空间中的网络进行训练得到优化网络,根据验证集精度和模型大小设定奖励函数,选取奖励函数最高的网络作为最优子模型;
[0009]S4,中心服务器在最优子模型的每一层网络的后方均添加分支分类网络作为出口,并添加输入层和输出层形成包括若干个分支模型的退出点模型;
[0010]S5,将步骤S4中退出点模型的分支模型分配给边缘设备进行训练得到退出点本地模型,中心服务器利用联邦学习方法对训练后的退出点本地模型进行聚合,并以最小化总损失函数和最大化验证精度为目标对中心服务器中的退出点模型进行更新。
[0011]所述步骤S1包括如下步骤:
[0012]S1.1,选取P个残差网络,对每个残差网络分别进行裁剪按照网络层将裁剪后的残差块对应存储在每层的残差块池中;
[0013]S1.2,分别从每个残差块池中随机选择一个残差块组成对应的网络层;
[0014]S1.3,对步骤S1.2得到的网络层进行连接形成包含个网络的搜索空
间,其中,N表示残差块池中候选残差块的数目,L表示残差块池的数目。
[0015]所述步骤S3包括如下步骤:
[0016]S3.1,基于长短期记忆网络建立控制器;
[0017]S3.2,利用控制器从步骤S1建立的搜索空间中随机选取网络,采用策略梯度的强化学习方法基于训练集数据对选取出的网络进行训练得到优化网络;
[0018]S3.3,利用验证集数据对优化网络进行测试,基于验证精度和模型大小计算奖励函数,选取奖励函数最大的网络作为最优子模型。
[0019]所述奖励函数的计算公式为:
[0020][0021]式中,Acc(h,ε)表示共享参数为ε的优化网络h在验证集上的验证精度,P表示基线网络的参数,p
h
表示优化网络h的参数量,R(h,ε)表示共享参数为ε的优化网络h的奖励函数,β为正整数。
[0022]所述步骤S5包括如下步骤:
[0023]S5.1,设置聚合总轮次T,初始化聚合轮数t=1;
[0024]S5.2,将步骤S4中退出点模型的分支模型随机分配给所有边缘设备,边缘设备利用本地数据对分支模型进行训练得到退出点本地子模型;
[0025]S5.3,所有边缘设备分别将各自的退出点本地模型的模型参数发送给中心服务器,中心服务器利用联邦学习方法对所有模型参数进行聚合得到退出点更新模型M
t

[0026]S5.4,将验证集数据输入退出点更新模型M
t
,判断t<T,若是,执行t=t+1,返回步骤S5.2,否则,执行步骤S5.5;
[0027]S5.5,以模型总损失最小化和模型准确度最大化为目标选取最优退出点更新模型对中心服务器中的退出点模型进行更新。
[0028]所述模型总损失的计算公式为:
[0029][0030]式中,λ
i
表示第i个出口的权重,表示第i个出口处分支模型输出值的准确性,ω
i
表示从输入层到第i个出口的参数,L表示搜索空间的层数。
[0031]所述第i个出口处分支模型输出值的准确性的计算公式为:
[0032][0033]式中,z
i
表示第i个出口处分支模型的输出值,V表示图像数据中的类别总数,z
j
表示第j个出口处分支模型的输出值。
[0034]一种基于联邦学习和神经架构搜索的云边协同训练系统,包括中心服务器和若干个边缘设备,所述中心服务器上设有:
[0035]搜索空间建立模块:用于基于P个残差网络构建包括若干个网络的搜索空间,且P≥2;
[0036]样本收集模块:用于收集图像样本并构建训练集和验证集,并将训练集和验证集发送给子模型建立模块和退出点模型优化模块;
[0037]子模型建立模块:用于利用训练集基于略梯度的强化学习方法对搜索空间建立模
块的搜索空间中的网络进行训练,根据奖励函数选取训练后的网络作为最优子模型,并将最优子模型发送给退出点模型建立模块,所述奖励函数基于验证集精度和模型大小设定;
[0038]退出点模型建立模块:用于接收最优子模型,在最优子模型的最前方和最后方分别添加输入层和输出层,并在最优子模型的每一层网络的后方均添加分支分类网络作为出口,形成包括若干个分支模型的退出点模型,将分支模型发送给边缘设备;
[0039]退出点模型优化模块:用于接收每个边缘设备所发送的退出点本地模型的模型参数,利用联邦学习方法对退出点本地模型的模型参数进行聚合,以最小化总损失函数和最大化验证精度为目标获取最优退出点模型;
[0040]所述每个边缘设备上均设有:
[0041]本地模型训练模块:用于接收分支模型,并基于本地数据进行训练生成退出点本地模型,并将退出点本地模型的模型参数发送给中心服务器。
[0042]本专利技术的有益效果:
[0043]使用神经架构搜索结合联邦学习的方法,实现在边缘环境中搜索和训练神经网络,实现了模型推理精度和模型压缩比例的权衡,可以为每个边缘设备提供定制的轻量级模型;是一种可以搜索具有不同规模分支的多出口模型的方案,通过选本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于联邦学习和神经架构搜索的云边协同训练方法,其特征在于,包括如下步骤:S1,基于P个残差网络构建包含若干个网络的搜索空间,且P≥2;S2,收集图像数据构建样本集,将所述样本集划分为训练集和验证集;S3,采用基于策略梯度的强化学习方法利用训练集对搜索空间中的网络进行训练得到优化网络,根据验证集精度和模型大小设定奖励函数,选取奖励函数最高的网络作为最优子模型;S4,中心服务器在最优子模型的每一层网络的后方均添加分支分类网络作为出口,并添加输入层和输出层形成包括若干个分支模型的退出点模型;S5,将步骤S4中退出点模型的分支模型分配给边缘设备进行训练得到退出点本地模型,中心服务器利用联邦学习方法对训练后的退出点本地模型进行聚合,并以最小化总损失函数和最大化验证精度为目标对中心服务器中的退出点模型进行更新。2.根据权利要求1所述的基于联邦学习和神经架构搜索的云边协同训练方法,其特征在于,所述步骤S1包括如下步骤:S1.1,选取P个残差网络,对每个残差网络分别进行裁剪按照网络层将裁剪后的残差块对应存储在每层的残差块池中;S1.2,分别从每个残差块池中随机选择一个残差块组成对应的网络层;S1.3,对步骤S1.2得到的网络层进行连接形成包含个网络的搜索空间,其中,N表示残差块池中候选残差块的数目,L表示残差块池的数目。3.根据权利要求1所述的基于联邦学习和神经架构搜索的云边协同训练方法,其特征在于,所述步骤S3包括如下步骤:S3.1,基于长短期记忆网络建立控制器;S3.2,利用控制器从步骤S1建立的搜索空间中随机选取网络,采用策略梯度的强化学习方法基于训练集数据对选取出的网络进行训练得到优化网络;S3.3,利用验证集数据对优化网络进行测试,基于验证精度和模型大小计算奖励函数,选取奖励函数最大的网络作为最优子模型。4.根据权利要求3所述的基于联邦学习和神经架构搜索的云边协同训练方法,其特征在于,所述奖励函数的计算公式为:式中,Acc(h,ε)表示共享参数为ε的优化网络h在验证集上的验证精度,P表示基线网络的参数,p
h
表示优化网络h的参数量,R(h,ε)表示共享参数为ε的优化网络h的奖励函数,β为正整数。5.根据权利要求1所述的基于联邦学习和神经架构搜索的云边协同训练方法,其特征在于,所述步骤S5包括如下步骤:S5.1,设置聚合总轮次T,初始化聚合轮数t=1;S5.2,将步骤S4中退出点模型的分支模型随机分配给所有边缘设备,边缘设备利用本地数据对分支模型进行训练得到退出点本地子模型;...

【专利技术属性】
技术研发人员:王晓飞张子桐仇超刘志成赵云凤
申请(专利权)人:天津大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1