【技术实现步骤摘要】
一种联邦学习过程中泄露输入信息的风险评估指标方法
[0001]本专利技术涉及人工智能
的联邦学习数据隐私保护领域,具体涉及一种联邦学习过程中泄露输入信息的风险评估指标方法。
技术介绍
[0002]随着信息处理能力和计算效率的显著提升,涌现了大量针对图像、文本、语音等数据进行处理的基于深度学习的应用。深度学习模型和应用依赖于大量高质量的数据,然而,现实中很少有单一的实体单位拥有大量数据,数据量少或是质量低都难以支撑深度学习模型的构建和应用。若将各个实体单位所拥有的相关数据收集在一起,又涉及到数据版权、隐私保护等问题。因此,以聚集形成规模数据效应、保护数据版权和隐私为初衷的联邦学习模型被设计出来并逐步得到应用。联邦学习是一个多参与方或多计算结点之间共享聚合机器学习模型梯度参数而不直接交换数据的分布式深度学习框架,以解决“数据共享与隐私保护的矛盾”问题。
[0003]近期对联邦学习中隐私保护有效性问题的研究证实,通过一定的手段可以基于模型梯度来重构输入数据,意味着联邦学习中共享模型梯度的隐私保护机制依然存在数据泄露的 ...
【技术保护点】
【技术特征摘要】
1.一种联邦学习过程中泄露输入信息的风险评估指标方法,其特征在于,包括以下步骤:S1:参与方选取一批个数为B的待训练样本(X,Y),并计算批样本梯度G和其中各样本的梯度G
(i)
;S2:选取某一样本x
(i)
,计算所选样本的梯度信息比InfoR(x
(i)
);S3:通过梯度信息比InfoR(x
(i)
),获取样本x
(i)
被批样本梯度G所泄露的风险程度,以达到输入样本特征泄露风险的评估。2.根据权利要求1所述的联邦学习过程中泄露输入信息的风险评估指标方法,其特征在于:所述批样本梯度G与批样本中各样本的梯度存在均值关系:3.根据权利要求2所述的联邦学习过程中泄露输入信息的风险评估指标方法,其特征在于:所述利用向量投影公式得到第i个样本梯度G
(i)
在批样本梯度向量G上的投影向量公式如下:其中投影向量在批样本梯度向量G上的长度为||G
(i)...
【专利技术属性】
技术研发人员:王乐,李钊华,顾钊铨,陈光耀,黄坤鑫,马丽婷,张志强,田志宏,
申请(专利权)人:广州大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。