大语言模型的训练方法、训练装置、存储介质及电子设备制造方法及图纸

技术编号:41235306 阅读:22 留言:0更新日期:2024-05-09 23:49
本说明书实施例公开了一种大语言模型的训练方法、训练装置、存储介质及电子设备,该训练方法包括:获取包含隐私信息的训练数据集,根据训练数据集对待训练大语言模型进行训练,以获取与训练数据集对应的第一平均梯度,并根据第一平均梯度构建噪声信息;根据预设数据量从训练数据集中确定目标训练数据集,采用目标训练数据集对待训练大语言模型进行训练,以获取与目标训练数据集对应的第二平均梯度;在目标训练数据集包含隐私信息时,将噪声信息与第二平均梯度进行叠加形成叠加梯度,并根据叠加梯度对待训练大语言模型进行参数优化;在目标训练数据集不包含隐私信息时,根据第二平均梯度对待训练大语言模型进行参数优化。

【技术实现步骤摘要】

本说明书涉及人工智能,尤其涉及一种大语言模型的训练方法、大语言模型的训练装置、计算机可读存储介质及电子设备。


技术介绍

1、大语言模型基于海量文本数据进行训练,对训练数据具有较强的记忆能力。一旦训练样本中包含隐私信息,比如邮箱、手机号等个人识别信息,攻击者就有一定概率通过与大模型进行问答交互,从大模型的回答中还原出部分隐私数据。

2、目前,在训练大语言模型时,常见的防护方式有两种:一种是直接针对训练样本中的隐私信息进行删除或者脱敏处理,一种是在训练环节,在使用随机梯度下降算法更新模型参数时叠加噪音,比如差分隐私随机梯度下降算法(dp-sgd),该算法的核心思想是通过干预模型用来更新参数的梯度来保护训练集的隐私,而不是直接获取数据。其中,第一种方法虽然可以解决隐私泄露问题,但是却导致大语言模型不识别隐私信息,或者只识别脱敏后的隐私信息,一旦需要使用大语言模型处理包含隐私信息的文本时,大语言模型无法正确理解隐私信息,降低了大语言模型的理解能力;第二种方法也可以解决隐私泄露问题,但是由于在训练时,所有训练样本对应的梯度都叠加了噪音,导致训练得到的大语本文档来自技高网...

【技术保护点】

1.一种大语言模型的训练方法,所述方法包括:

2.根据权利要求1所述的训练方法,所述根据所述训练数据集对待训练大语言模型进行训练,以获取与所述训练数据集对应的第一平均梯度,包括:

3.根据权利要求1所述的方法,所述根据所述第一平均梯度构建噪声信息,包括:

4.根据权利要求3所述的方法,当所述噪声信息为连续型噪声,且所述连续型噪声为高斯噪声时;

5.根据权利要求3所述的方法,当所述噪声信息为非连续型噪声,且所述非连续型噪声为椒盐噪声时;

6.根据权利要求1所述的训练方法,所述根据预设数据量从所述训练数据集中确定目标训练数据集,包括...

【技术特征摘要】

1.一种大语言模型的训练方法,所述方法包括:

2.根据权利要求1所述的训练方法,所述根据所述训练数据集对待训练大语言模型进行训练,以获取与所述训练数据集对应的第一平均梯度,包括:

3.根据权利要求1所述的方法,所述根据所述第一平均梯度构建噪声信息,包括:

4.根据权利要求3所述的方法,当所述噪声信息为连续型噪声,且所述连续型噪声为高斯噪声时;

5.根据权利要求3所述的方法,当所述噪声信息为非连续型噪声,且所述非连续型噪声为椒盐噪声时;

6.根据权利要求1所述的训练方法,所述根据预设数据量从所述训练数据集中确定目标训练数据集,包括:

7.根据权利要求1或6所述的训练方法,所述采用所述目标训练数据集对待训练大语言模型进行训练,以获取与所述目标训练数据集对应的第二平均梯度,包括:

8.根据权利要求1所述的训练方法,所述方法还包括:

9.根据...

【专利技术属性】
技术研发人员:刘焱翁海琴
申请(专利权)人:蚂蚁科技集团股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1