【技术实现步骤摘要】
一种基于联邦学习的增强神经网络防御能力的方法
本专利技术涉及人工智能安全
,特别的为一种基于联邦学习的增强神经网络防御能力的方法。
技术介绍
对抗样本(AdversarialExamples)是指在输入样本添加难以人为分辨的细微干扰,导致机器学习模型(如神经网络)以高置信度给出一个错误的输出。对抗样本的存在证实了现有机器学习模型自身仍存在安全问题,因而限制了人工智能(AI)在安全性要求较高的领域(如自动驾驶)的应用和发展。论文“IntriguingPropertiesofNeuralNetworks”(ChristianSzegedy,WojciechZaremba,etal.IntriguingPropertiesofNeuralNetworks.InICLR,2014.)提出对抗样本的概念并证明了对抗样本对不同结构以及不同训练集训练的模型具有普遍性。从此,针对图像领域的对抗攻击和防御引起了研究热潮。为了增强神经网络的防御能力,一种思路是改进神经网络模型架构,让神经网络模型架构具有某些特性,如论文“Forti ...
【技术保护点】
1.一种基于联邦学习的增强神经网络防御能力的方法,其特征在于,包括以下步骤:/nS1、利用联邦学习,使数据留在本地并防止数据隐私泄露,协同各方进行分布式的模型训练,对中间结果进行加密以保护数据安全,汇总后融合多方模型得到联邦模型;/nS2、建立对抗样本,并采用算法对对抗样本进行快速寻找。/n
【技术特征摘要】
1.一种基于联邦学习的增强神经网络防御能力的方法,其特征在于,包括以下步骤:
S1、利用联邦学习,使数据留在本地并防止数据隐私泄露,协同各方进行分布式的模型训练,对中间结果进行加密以保护数据安全,汇总后融合多方模型得到联邦模型;
S2、建立对抗样本,并采用算法对对抗样本进行快速寻找。
2.根据权利要求1所述的一种基于联邦学习的增强神经网络防御能力的方法,其特征在于,在S1中的操作步骤中,还包括以下步骤:
101、选取一个可信的服务器作为可信的第三方,参与模型训练的终端从服务器中下载共享的初始模型;
S102、各参与方利用本地存储的图片数据对下载的共享模型进行训练;
S103、各参与方对模型的中间结果进行加密,并通过安全协议把加密的中间结果上传服务器;
S104、服务器把各参与方的中间结果通过联邦模型融合算法融合起来,得到一个优化的共享模型。
3.根据权利要求1所述的一种基于联邦学习的增强神经网络防御能力的方法,其特征在于,在S2中的操作步骤中,还包括以下步骤:
S201、数据的收集和整理...
【专利技术属性】
技术研发人员:顾钊铨,李鉴明,仇晶,王乐,唐可可,韩伟红,贾焰,方滨兴,
申请(专利权)人:广州大学,
类型:发明
国别省市:广东;44
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。