System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 保护数据隐私的上下文学习方法技术_技高网
当前位置: 首页 > 专利查询>复旦大学专利>正文

保护数据隐私的上下文学习方法技术

技术编号:44096992 阅读:36 留言:0更新日期:2025-01-21 12:30
本发明专利技术公开了一种保护数据隐私的上下文学习方法。所述上下文学习方法包括:在对大语言模型进行预训练过程中,对训练数据的梯度实施自适应加噪处理;根据预训练得到的大语言模型和指定的格式指令,逐Token构建生成上下文示例,在构建生成上下文示例的过程中,Token生成时实施自适应加噪处理;在大语言模型推理过程中,将具备隐私保护的上下文示例与用户的输入内容进行拼接结合,形成带有提示的输入,输入到大语言模型中进行预测和推理。本发明专利技术的上下文学习方法中,通过自适应加噪策略动态调整添加噪声的尺度,这样一来,可以在保护隐私的同时减少对模型性能的影响,最终实现了增强隐私保护和优化模型性能的技术效果。

【技术实现步骤摘要】

本专利技术涉及一种大语言模型学习方法,尤其涉及一种保护数据隐私的上下文学习方法


技术介绍

1、当前数字化时代,人工智能技术在各个行业领域发挥着重要作用,其中大语言模型(llm)以其出色的语言生成能力,成为一项引人注目的技术。这些大语言模型是在预训练语言模型(plm)的基础上发展起来的,其性能的提升得益于信息时代数据量和计算能力的显著增长。大语言模型在自然语言理解和生成任务中展现出巨大的潜力。

2、上下文学习(icl)是大语言模型研究的一个分支,它允许模型通过提供少量示例来解决新问题,而无需对模型权重进行任何调整。这种学习方式的关键在于从类比中学习,通过构建上下文演示并将其与查询问题结合,形成带有提示的输入,进而进行模型预测。

3、目前的问题在于:

4、1)尽管上下文学习提供了一种低成本的微调训练方案,它也存在一些隐私泄露的风险,攻击者可能通过提示词注入攻击诱导模型输出上下文示例的内容,导致示例中的隐私信息泄露。在个人隐私安全日益受到重视的今天,这种隐私泄露问题不容忽视。

5、2)差分隐私(dp)虽然被认为是保护个人隐私的黄金标准,但其加噪过程可能会降低模型的准确率。如何在保护隐私的同时,最小化对模型性能的影响,是现有技术面临的一个挑战。

6、为了解决上述问题,需要一种既能有效保护隐私,又能保持或提升模型性能的解决方案。


技术实现思路

1、本专利技术的目的在于提供一种保护数据隐私的上下文学习方法,该上下文学习方法能够在保护隐私的同时减少对模型性能的影响。

2、为了实现上述技术目的,本专利技术采用如下技术方案:

3、一种保护数据隐私的上下文学习方法,所述上下文学习方法包括:

4、在对大语言模型进行预训练过程中,对训练数据的梯度实施自适应加噪处理;

5、根据预训练得到的大语言模型和指定的格式指令,逐token构建生成上下文示例,在构建生成上下文示例的过程中,token生成时实施自适应加噪处理;

6、在大语言模型推理过程中,将具备隐私保护的上下文示例与用户的输入内容进行拼接结合,形成带有提示的输入,输入到大语言模型中进行预测和推理,从而得到预测推理结果。

7、进一步地,所述在对大语言模型进行预训练过程中,对训练数据的梯度实施自适应加噪处理,其具体实现的方法包括:

8、在预训练过程中,引入自适应的高斯加噪策略来保护训练数据的隐私,并且,通过动态调整噪声尺度,根据训练误差的变化来最小化梯度失真。

9、进一步地,在对训练数据的梯度实施自适应加噪处理时,采用差分隐私技术。

10、进一步地,在对训练数据的梯度实施自适应加噪处理时,采用差分隐私技术之时,所添加的噪声,其标准差σ将根据每轮训练的损失值进行自适应的调整,该标准差σ的计算公式为:

11、

12、式中,σ0为初始噪声标准差,λ则表示训练损失对噪声标准差的影响程度。

13、进一步地,所述在构建生成上下文示例的过程中,token生成时实施自适应加噪处理,其具体实现的方法包括:

14、s21,为大语言模型指定需要生成的上下文示例格式,大语言模型则根据指定的上下文示例格式以及已经生成的内容来生成下一个token,并记录token的生成概率分布;

15、s22,对所生成的token进行词性分析,然后依据预先制定的噪声添加策略来为所述token的生成概率分布添加相应尺度的高斯噪声,重新生成后得出加噪后token;

16、s23,将加噪后token与已经生成的上下文内容串联,更新已经生成的上下文内容;

17、s24,重复执行上述的步骤s21至s23,直至生成满足条件的上下文示例为止。

18、进一步地,在token生成实施自适应加噪处理时,采用差分隐私技术。

19、进一步地,所述噪声添加策略,其中包括:

20、为名词添加大尺度的噪声;

21、为动词、形容词以及数词添加中等尺度的噪声;

22、为其他词性的词语添加小尺度的噪声。

23、进一步地,所述将具备隐私保护的上下文示例与用户的输入内容进行拼接结合,形成带有提示的输入,输入到大语言模型中进行预测和推理,从而得到预测推理结果,其具体实现的方法包括:

24、大语言模型将一系列具备隐私保护的上下文演示示例进行组合,生成最终的上下文演示与用户输入input进行拼接,放入大语言模型进行推理得到:

25、output=llm(·|z,input)

26、接下来对引入差分隐私之后带来的隐私保证进行说明;

27、首先引入差分隐私的定义:

28、(∈,δ)-dp定义为对任意两个相邻的数据集d和d'(两者仅有一个数据点不同)以及所有可能的输出o,有:

29、

30、其中表示加噪后的大语言模型算法;

31、高斯机制通过向敏感数据添加高斯噪声来实现差分隐私,在这种机制中,噪声的标准差σicl与隐私参数∈,δ之间存在以下关系:

32、对于给定数据集灵敏度δ,高斯机制保证(∈,δ)-dp的条件是

33、

34、在大语言模型预训练阶段,可得整体的隐私预算∈为:

35、

36、在生成具备隐私保护的上下文演示示例阶段,可得整体的隐私预算∈为:

37、

38、其中σi表示各token依照词性添加噪声的标准差。

39、本专利技术的上下文学习方法相对现有技术,其有益效果在于:

40、在本专利技术的上下文学习方法中,采用了结合差分隐私的上下文学习方法,通过自适应加噪策略动态调整添加噪声的尺度,这样一来,可以在保护隐私的同时减少对模型性能的影响,最终实现了增强隐私保护和优化模型性能的技术效果。

本文档来自技高网...

【技术保护点】

1.一种保护数据隐私的上下文学习方法,其特征在于:所述上下文学习方法包括:

2.根据权利要求1所述保护数据隐私的上下文学习方法,其特征在于:所述在对大语言模型进行预训练过程中,对训练数据的梯度实施自适应加噪处理,其具体实现的方法包括:

3.根据权利要求2所述保护数据隐私的上下文学习方法,其特征在于:在对训练数据的梯度实施自适应加噪处理时,采用差分隐私技术。

4.根据权利要求3所述保护数据隐私的上下文学习方法,其特征在于:在对训练数据的梯度实施自适应加噪处理时,采用差分隐私技术之时,所添加的噪声,其标准差σ将根据每轮训练的损失值进行自适应的调整,该标准差σ的计算公式为:

5.根据权利要求1所述保护数据隐私的上下文学习方法,其特征在于:所述在构建生成上下文示例的过程中,Token生成时实施自适应加噪处理,其具体实现的方法包括:

6.根据权利要求5所述保护数据隐私的上下文学习方法,其特征在于:在Token生成实施自适应加噪处理时,采用差分隐私技术。

7.根据权利要求6所述保护数据隐私的上下文学习方法,其特征在于:所述噪声添加策略,其中包括:

8.根据权利要求1所述保护数据隐私的上下文学习方法,其特征在于:所述将具备隐私保护的上下文示例与用户的输入内容进行拼接结合,形成带有提示的输入,输入到大语言模型中进行预测和推理,从而得到预测推理结果,其具体实现的方法包括:

...

【技术特征摘要】

1.一种保护数据隐私的上下文学习方法,其特征在于:所述上下文学习方法包括:

2.根据权利要求1所述保护数据隐私的上下文学习方法,其特征在于:所述在对大语言模型进行预训练过程中,对训练数据的梯度实施自适应加噪处理,其具体实现的方法包括:

3.根据权利要求2所述保护数据隐私的上下文学习方法,其特征在于:在对训练数据的梯度实施自适应加噪处理时,采用差分隐私技术。

4.根据权利要求3所述保护数据隐私的上下文学习方法,其特征在于:在对训练数据的梯度实施自适应加噪处理时,采用差分隐私技术之时,所添加的噪声,其标准差σ将根据每轮训练的损失值进行自适应的调整,该标准差σ的计算公式为:

5....

【专利技术属性】
技术研发人员:金玲飞冯煜
申请(专利权)人:复旦大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1