The invention discloses a deep learning model protection method without artificial noise, which includes step 1: after receiving the user's query request, obtain the required trained neural network model parameters \u041f, \u03b8, and the user's neural network model parameters use the set \u041f = {\u03c0
【技术实现步骤摘要】
一种无人工噪声的深度学习模型保护方法
本专利技术涉及一种无人工噪声的深度学习模型保护方法,属于神经网络隐私安全
技术介绍
近年来,随着深度神经网络不断研究发展,神经网络被广泛应用于各个领域,许多机器学习服务通过发布神经网络模型为客户提供神经网络应用,而发布模型时对用户隐私数据的保护成为机器学习领域的研究热点之一。隐私保护方案主要分为三种:对抗性训练、安全计算、差分隐私训练。对抗性训练将任务模型与对抗模型同时用于训练神经网络,使得网络模型有效地防止数据泄露,但是它不能防止未知的数据攻击方式。安全计算方法使用密码学工具进行数据处理,巨大的计算量导致其实用性较差。目前主流的隐私保护方案使用差分隐私机制,将数据集附加额外的人工噪声,使得攻击者无法根据相邻数据集返回的结果获得个人隐私数据。但是由于噪声的存在,损失了一定程度的神经网络性能以及结果准确性。因此,需要针对深度学习模型发布,设计一种可行性高、结果可靠、安全的神经网络隐私保护机制。
技术实现思路
专利技术目的:针对现有技术中存在的神经网络性能和用户隐私保护之间不平衡的问题与不足,本专利技术提供一种无需附加人工噪声的深度学习模型保护方法,本方法具有较小的用户隐私泄露可能性以及较好的神经网络性能。技术方案:一种无人工噪声的深度学习模型保护方法,其特征在于,包括以下步骤:步骤1,接收用户查询请求后,获取所需的经过训练的神经网络模型参数П、Θ,用户神经网络模型参数使用集合П={π1,π2,π3,…,πM}表示 ...
【技术保护点】
1.一种无人工噪声的深度学习模型保护方法,其特征在于,包括以下步骤:/n步骤1,接收用户查询请求后,获取所需的经过训练的神经网络模型参数Π、Θ,用户神经网络模型参数使用集合Π={π
【技术特征摘要】
1.一种无人工噪声的深度学习模型保护方法,其特征在于,包括以下步骤:
步骤1,接收用户查询请求后,获取所需的经过训练的神经网络模型参数Π、Θ,用户神经网络模型参数使用集合Π={π1,π2,π3,…,πM}表示,其中πi表示第i次训练相同神经网络所得的模型集;Θ表示神经网络经过迭代训练不同层数上所有参数的集合;
步骤2,通过核密度估计法处理输入的参量数据Θ,得到参量的概率分布函数;
步骤3,通过得分函数p(u,v)处理各个参量θ(u,v)的取值分值,所得的总分值大小P,表明取值可能性的大小;
步骤4,返回取值可能性最大时的参量数值,所述参量数值即为用户查询请求的结果。
2.根据权利要求1所述的无人工噪声的深度学习模型保护方法,其特征在于:在步骤1中,用户查询神经网络参数模型参数包括查询模型最终参数和非交互式查询中间生成参数两种类型;
当查询模型最终参数时,返回当迭代次数t=T时神经网络的模型参数;
当查询中间生成参数时,用户可查询迭代次数t∈[1,T]中的任意一种或多种,设置用户的查询序列为y={y1,y2,…,yQ},yi=(u,v,l,t),表示Q次查询。
3.根据权利要求2所述的无人工噪声的深度学习模型保护方法,其特征在于:当用户发送查询模型最终参数请求时,具体包括以下步骤:
步骤201,输入神经网络的模型集合Π,参量数据集合Θ,以及得分函数p。u,v,l初始值均设置为1;
步骤202,使用核密度估计算法得到的分布,表示训练中第t次迭代时第l层上位于(u,v)处的参数集合;
步骤203,根据得分函数p(u,v),计算最大得到分值时,返回所取的参量θ′(u,v);
步骤204,将θ′(u,v)添加到集合θgen中,表示生成过程的结果;
步骤205,若1≤u≤W,1≤v≤H,重复步骤202至204;
步骤206,若1≤l≤L,重复步骤20...
【专利技术属性】
技术研发人员:毛云龙,林宇,朱博宇,张渊,仲盛,
申请(专利权)人:南京大学,
类型:发明
国别省市:江苏;32
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。