一种针对深度学习模型的数据记忆消除方法和装置制造方法及图纸

技术编号:29462695 阅读:23 留言:0更新日期:2021-07-27 17:33
本发明专利技术涉及一种针对深度学习模型的数据记忆消除方法和装置。该方法的步骤包括:保存在深度学习模型的初次训练过程中得到的中间模型;在删除数据后对深度学习模型进行重训练时,直接调用在删除数据点之前且与删除数据点最接近的中间模型作为初始化的遗忘模型;利用删除数据点之后的数据对初始化的遗忘模型进行重训练,并衡量删除数据在重训练模型上的残留记忆,当残留记忆降低到能够忽略不计时终止重训练;在重训练结束后,调用保存的中间模型对重训练后的遗忘模型进行拼接,得到最终的遗忘模型。本发明专利技术大幅降低了模型服务商提供删除服务需要耗费的时间和算力,也对删除数据提供了隐私保护,同时保证了遗忘数据后模型的高可用性。

A data memory elimination method and device for deep learning model

The invention relates to a data memory elimination method and device for a deep learning model. The steps of the method include: saving the intermediate model obtained in the initial training process of the deep learning model; When retraining the deep learning model after deleting the data, directly call the intermediate model closest to the deleted data point before deleting the data point as the initialized forgetting model; The initial forgetting model is retrained with the data after deleting the data points, and the residual memory of the deleted data on the retraining model is measured. When the residual memory is reduced to be negligible, the retraining is terminated without timing; After the heavy training is finished, the saved middle model is used to stitch the forgotten model after training, and the final forgetting model is obtained. The invention greatly reduces the time and computing power required by the model service provider to provide the deletion service, provides privacy protection for the deleted data, and ensures the high availability of the model after forgetting the data.

【技术实现步骤摘要】
一种针对深度学习模型的数据记忆消除方法和装置
本专利技术主要涉及为实现深度神经网络的训练数据隐私保护,提出一种针对深度学习模型遗忘的数据记忆消除方法和装置。
技术介绍
以神经网络为代表的深度学习技术带来了人工智能发展的第三次浪潮,显著提升了图像分类,语音识别,自然语言处理的能力,为人们的生产生活方式带来了巨大的便利。训练一个高准确率和高可靠性的模型,往往需要依赖大量的训练数据。这些从大量用户采集而来的数据往往包含用户的隐私或敏感信息。例如,房屋门牌号的图像数据可能会暴露房主的家庭住址、建筑材料和房屋颜色,商场的购物记录数据可能会暴露用户的购物喜好、购物习惯和收入水平。因此,针对模型带来的隐私泄露风险用户可能要求模型服务商将自己的数据从模型中移除。另外,从立法的角度来看,许多国家的法律法规都强调用户有权删除用户的私有数据。因此,除了从训练集中删除用户的隐私数据,模型服务商还必须在已训练完成的模型中移除该数据所带来的影响。为了删除数据在模型中的影响,最直接的方法是将训练集中的数据删除并在此数据基础上重新训练一个深度学习模型。但是,由于深度学习模型的规模越来越大,每次训练会耗费大量的时间和算力,重训练的方法已不太可行。
技术实现思路
针对上述问题,本专利技术提出了一种针对深度学习模型遗忘的数据记忆消除技术,帮助模型服务商大幅缩减了模型遗忘服务所需要的时间及算力开销,帮助数据拥有者高效删除其数据信息,提供了数据隐私保护,并获得具有高可用性的模型。本专利技术首先提出时序残留记忆(TemporalResidualMemory,TRM)的概念。通过对模型训练的实验观察,先经过训练的数据随着训练过程的加深,在模型中留下的影响越来越小,并在一定的迭代训练后降低至一个可忽略的程度。本专利技术采用在两个数据集上同时训练模型来观察删除数据在模型中的残留记忆,并提出了对两个模型学习相同数据后得到的参数变化量作差,对差向量的L1范数进行去趋势波动分析,从而判断何时可以结束重训练。本专利技术提出了存储训练过程的中间模型以及模型拼接的技术,在模型初次训练过程中,每训练固定步数后保存一遍当前模型,直到模型训练完毕,这样在遗忘数据进行模型重训练时,可以直接调用中间某个最接近的模型,减少重新训练的开销,并在重新训练结束时,调用保存的模型进行模型拼接,从而大大降低重新训练所带来的时间及算力开销。本专利技术包含了时序残留记忆、模型的存储与拼接、向量的范数、去趋势波动分析、最小二乘法等多种技术,从一个训练好的模型中,遗忘特定数据产生的记忆,高效地完成了模型遗忘的操作,保护了遗忘数据的个人隐私,以更高的效率得到可用的遗忘模型。本专利技术所采用的技术方案的原理是:数据点在模型训练的过程中留下的记忆随着训练的进行会渐渐变小,于是通过衡量删除数据在重训练模型上的残留记忆,当删除数据点的残留记忆降低到可以忽略不计时,终止重新训练,再利用存储的中间模型以及模型拼接技术,就可以快速地得到遗忘模型。本专利技术的技术方案为:一种针对深度学习模型的数据记忆消除方法,包括以下步骤:保存在深度学习模型的初次训练过程中得到的中间模型;在删除数据后对深度学习模型进行重训练时,直接调用在删除数据点之前且与删除数据点最接近的中间模型作为初始化的遗忘模型;利用删除数据点之后的数据对初始化的遗忘模型进行重训练,并衡量删除数据在重训练模型上的残留记忆,当残留记忆降低到能够忽略不计时终止重训练;在重训练结束后,调用保存的中间模型对重训练后的遗忘模型进行拼接,得到最终的遗忘模型。进一步地,所述保存在深度学习模型的初次训练过程中得到的中间模型,包括:将数据集按训练顺序划分成n个数据片,并且在训练原始模型时,当训练完成每个数据片后都对此时的模型进行存储,即训练完前i个数据片后得到模型M(i),并将模型的参数提取成向量P(i),当训练完n个数据片后得到M(n)。进一步地,所述直接调用在删除数据点之前且与删除数据点最接近的中间模型作为初始化的遗忘模型,包括:假定需要删除的数据点位于第k个数据片,令原第k个数据片表示为D(k),删除数据点后第k个数据片表示为Du(k),其它数据片没有发生变化,取前k-1个数据片训练后保存的模型M(k-1),令遗忘模型Mu初始化为M(k-1),将模型的参数提取成向量Pu(k-1)。进一步地,所述衡量删除数据在重训练模型上的残留记忆,包括:取遗忘模型在训练数据片D(k+t)前后的模型参数变化量,即Vu(k+t)=Pu(k+t)-Pu(k+t-1);取原始模型在训练数据片D(k+t)前后的模型参数变化量,即令V(k+t)=P(k+t)-P(k+t-1);计算两个变化量的差向量的L1范数,即令Δ(k+t)=||Vu(k+t)-V(k+t)||1;通过Δ(k+t)衡量删除数据在重训练模型上的残留记忆。进一步地,利用去趋势波动分析技术和最小二乘法来分析所述残留记忆是否下降到平稳水平。进一步地,所述的利用去趋势波动分析技术和最小二乘法来分析所述残留记忆是否下降到平稳水平,包括:形成序列{Δ(k),Δ(k+1),...,Δ(k+t)},对其进行去趋势波动分析,得到衰减指数h;构造要拟合的幂律衰减函数y=a·x-h+b,其中(x,y(x))取值为序列{(k,Δ(k)),(k+1,Δ(k+1)),...,(k+t,Δ(k+t))},并利用最小二乘法求解参数a,b;求解函数y对x的导函数f=a·(-h)·x-h-1,并计算x=k+t时的导函数p=f(k+t),如果最右侧边界的导数的绝对值小于常量ε,则认定序列{Δ(k),Δ(k+1),...,Δ(k+t)}已经趋于稳定,即遗忘模型和原始模型的参数变化量的差距趋于0,终止重训练。进一步地,所述调用保存的中间模型对重训练后的遗忘模型进行模型拼接,得到最终的遗忘模型,包括:将剩余数据片(D(k+t+1),...,D(n))上保存的训练结果直接拼接到遗忘模型Mu上,形成最终的遗忘模型Mu,最终模型的参数Pu(n)=Pu(k+t)+[P(n)-P(k+t)]。一种采用上述方法的针对深度学习模型的数据记忆消除装置,其包括:初次训练模块,用于对深度学习模型进行初次训练,并保存在深度学习模型的初次训练过程中得到的中间模型;重训练模块,用于在删除数据后对深度学习模型进行重训练,进行重训练时直接调用在删除数据点之前且与删除数据点最接近的中间模型作为初始化的遗忘模型;利用删除数据点之后的数据对初始化的遗忘模型进行重训练,并衡量删除数据在重训练模型上的残留记忆,当残留记忆降低到能够忽略不计时终止重训练;模型拼接模块,用于在重训练结束后,调用保存的中间模型对重训练后的遗忘模型进行拼接,得到最终的遗忘模型。本专利技术提供了一种高效的深度学习模型删除数据的技术,既大幅降低了模型服务商提供删除服务需要耗费的时间和算力,也对删除数据提供了隐私保护,同时保证了遗忘数据后模型的高可用性。通过本文档来自技高网...

【技术保护点】
1.一种针对深度学习模型的数据记忆消除方法,其特征在于,包括以下步骤:/n保存在深度学习模型的初次训练过程中得到的中间模型;/n在删除数据后对深度学习模型进行重训练时,直接调用在删除数据点之前且与删除数据点最接近的中间模型作为初始化的遗忘模型;/n利用删除数据点之后的数据对初始化的遗忘模型进行重训练,并衡量删除数据在重训练模型上的残留记忆,当残留记忆降低到能够忽略不计时终止重训练;/n在重训练结束后,调用保存的中间模型对重训练后的遗忘模型进行拼接,得到最终的遗忘模型。/n

【技术特征摘要】
1.一种针对深度学习模型的数据记忆消除方法,其特征在于,包括以下步骤:
保存在深度学习模型的初次训练过程中得到的中间模型;
在删除数据后对深度学习模型进行重训练时,直接调用在删除数据点之前且与删除数据点最接近的中间模型作为初始化的遗忘模型;
利用删除数据点之后的数据对初始化的遗忘模型进行重训练,并衡量删除数据在重训练模型上的残留记忆,当残留记忆降低到能够忽略不计时终止重训练;
在重训练结束后,调用保存的中间模型对重训练后的遗忘模型进行拼接,得到最终的遗忘模型。


2.根据权利要求1所述的方法,其特征在于,所述保存在深度学习模型的初次训练过程中得到的中间模型,包括:
将数据集按训练顺序划分成n个数据片,并且在训练原始模型时,当训练完成每个数据片后都对此时的模型进行存储,即训练完前i个数据片后得到模型M(i),并将模型的参数提取成向量P(i),当训练完n个数据片后得到M(n)。


3.根据权利要求2所述的方法,其特征在于,所述直接调用在删除数据点之前且与删除数据点最接近的中间模型作为初始化的遗忘模型,包括:
假定需要删除的数据点位于第k个数据片,令原第k个数据片表示为D(k),删除数据点后第k个数据片表示为Du(k),其它数据片没有发生变化,取前k-1个数据片训练后保存的模型M(k-1),令遗忘模型Mu初始化为M(k-1),将模型的参数提取成向量Pu(k-1)。


4.根据权利要求3所述的方法,其特征在于,所述衡量删除数据在重训练模型上的残留记忆,包括:
取遗忘模型在训练数据片D(k+t)前后的模型参数变化量,即Vu(k+t)=Pu(k+t)-Pu(k+t-1);
取原始模型在训练数据片D(k+t)前后的模型参数变化量,即令V(k+t)=P(k+t)-P(k+t-1);
计算两个变化量的差向量的L1范数,即令Δ(k+t)=||Vu(k+t)-V(k+t)||1;通过Δ(k+t)衡量删除数据在重训练模型上的残留记忆。


5.根据权利要求4所述的方法,其特征在于,利用去趋势波动分析技术和最小二乘法来分析所述残留记忆是否下降到平稳水平。


6.根据权利要求5所述的方法,其特征在于,所述的利用去趋势波动分析技术和最...

【专利技术属性】
技术研发人员:孟国柱何英哲陈恺何锦雯胡兴波
申请(专利权)人:中国科学院信息工程研究所
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1