System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 大语言模型内部知识定位探测方法、系统、设备及介质技术方案_技高网
当前位置: 首页 > 专利查询>清华大学专利>正文

大语言模型内部知识定位探测方法、系统、设备及介质技术方案

技术编号:40444060 阅读:8 留言:0更新日期:2024-02-22 23:05
本发明专利技术提供了一种大语言模型内部知识定位探测方法、系统、设备及介质,具体涉及知识定位技术领域,通过获取待定位文本;将待定位文本输入至预先训练的知识探测模型中,预测待定位文本在大语言模型中每层对应的激活值,输出多个预测激活值;将最大预测激活值在大语言模型中的层数作为待定位文本的定位结果。上述方法在进行知识定位探测时仅通过预先训练好的知识探测模型生成待定位文本的预测激活值,根据该预测激活值可直接获取待定位文本在大语言模型中的层数,以低成本计算的方式快速实现大语言模型内部知识的定位探测。

【技术实现步骤摘要】

本专利技术涉及知识定位,特别是涉及一种大语言模型内部知识定位探测方法、系统、设备及介质


技术介绍

1、大语言模型以神经网络参数的形式学习存储知识,这种隐式知识表示方式可解释性差,难以被人类理解。同时,随着知识的过时或错误,想修正大语言模型内部的知识是很困难的。所以对大语言模型内部知识进行知识定位探测,了解内部知识存储的位置与方式,对于大语言模型的可解释性和修正错误知识具有重要的作用。

2、目前针对大语言模型内部的知识定位检测方法主要有知识归因(knowledgeattribution)和因果中介分析(causal mediation analysis)两种,但上述两种知识定位方法对于每条知识的定位均需要多次的前向计算或多次的反向梯度计算,由于大语言模型参数规模巨大,前向计算与反向梯度计算均需要耗费大量的时间与计算资源,造成知识定位的时间成本和计算成本太高。

3、基于此,本专利技术提出一种大语言模型内部探测知识定位探测方法以解决上述问题。


技术实现思路

1、本专利技术提供一种大语言模型内部知识定位探测方法、系统、设备及介质,以解决现有对大语言模型内部知识定位方法探测成本和计算成本太高的问题。

2、在本专利技术实施例第一方面提出一种大语言模型内部知识定位探测方法,所述方法包括:

3、获取待定位文本;

4、将所述待定位文本输入至预先训练的知识探测模型中,预测所述待定位文本在大语言模型中每层对应的激活值,输出多个预测激活值,其中,所述知识探测模型通过训练文本和所述训练文本对应的训练标签训练得到,所述训练标签是所述大语言模型针对所述训练文本经过一轮前向过程计算生成的,所述训练标签用于表征所述大语言模型对所述训练文本的响应程度,所述训练标签对应的值越高表明所述训练文本存储在大语言模型中对应层的概率越高;

5、将最大所述预测激活值在所述大语言模型中所属的层数作为所述待定位文本的定位结果。

6、在本专利技术可选地一实施例中,所述知识探测模型的训练样本是由大语言模型生成的,所述大语言模型包括嵌入层和多层堆叠的transformer块,所述多层堆叠的transformer块中每个块的结构相同,每个所述transformer块包含多头自注意力层和全连接映射层两个子层,对每个所述子层进行层归一化操作,并对两个所述子层中间进行残差连接,对每个所述transformer块之间进行残差连接;

7、所述知识探测模型的训练样本通过以下步骤获取:

8、所述训练文本经过所述嵌入层得到文本词嵌入向量表示序列,并在所述文本词嵌入向量表示序列中增加位置编码信息,建模所述文本词嵌入向量表示序列的时间先后顺序,记录第一激活向量;

9、记录所述训练文本经过每个所述transformer块的所述多头自注意力层与所述全连接映射层的第二激活向量;

10、对记录的所有所述第一激活向量和所述第二激活向量求均值,得到每一层激活向量均值,每个所述激活向量均值表示所述大语言模型对所述训练文本的响应程度,所述激活向量均值越高表明所述训练文本存储在大语言模型中对应层的概率越高;

11、将所有所述激活向量均值按照在所述大语言模型所属的层数从前往后组成一个向量,将所述向量作为训练所述知识探测模型的训练标签;

12、将所述训练文本和所述训练标签组合作为一条所述训练样本。

13、在本专利技术可选地一实施例中,所述知识探测模型的训练样本的获取步骤具体包括:

14、采用词嵌入矩阵将所述训练文本转化为连续特征向量;

15、对所述连续特征向量增加位置编码信息,并建模所述连续特征向量的时间先后顺序信息,记录所述第一激活向量;

16、记录每个所述transformer块的所述多头自注意力层与所述全连接映射层的所述第二激活向量,对每一层的所述第一激活向量和所述第二激活向量求均值,得到n个所述激活向量均值,其中,所述嵌入层产生一个所述第一激活向量,每个所述transformer块产生两个所述第二激活向量,其中,n为大于3的整数;

17、将n个所述激活向量均值按照在所述大语言模型所属的层数依次组合形成n维的向量,将所述向量作为训练所述知识探测模型的训练标签;

18、将所述训练文本和所述训练标签组合作为一条所述训练样本。

19、在本专利技术可选地一实施例中,所述知识探测模型为对任意神经网络模型进行训练得到的,所述知识探测模型的训练步骤包括:

20、将所述训练文本输入至待训练神经网络模型,并对所述训练文本进行编码,得到编码文本;

21、采用softmax函数将所述编码文本转换为概率值;

22、采用交叉熵损失函数计算所述概率值和所述训练标签之间的损失;

23、对所述损失进行反向传播计算梯度,以及对所述待训练神经网络模型的参数进行更新,完成所述知识探测模型的训练。

24、在本专利技术可选地一实施例中,所述神经网络模型的网络结构为基于transformer的网络结构,所述网络结构包含一个嵌入层、m层自注意力模块和一个线性层,所述知识探测模型的训练步骤具体包括:

25、采用所述嵌入层将所述训练文本转化为多维的向量序列;

26、将多维的所述向量序列输入至所述m层自注意力模块中,输出所述编码文本,其中,m为大于2的整数;

27、采用所述线性层将所述编码文本的维度转换为与所述训练标签的维度相同;

28、采用所述softmax函数对所述编码文本进行归一化处理,得到所述概率值;

29、对所述概率值采用交叉熵损失函数进行梯度下降训练,直至完成所述知识探测模型的训练。

30、在本专利技术可选地一实施例中,所述方法还包括:

31、在获取所述待定位文本的定位结果后,对所述大语言模型所在层数的存储文本和待定位文本进行对比,得到对比结果;

32、当所述对比结果为所述存储文本和所述待定位文本不相同的情况下,将所述存储文本更改为所述待定位文本,以修正所述大语言模型中的存储文本为正确的文本。

33、在本专利技术实施例第二方面提出一种大语言模型内部知识定位探测系统,所述系统包括:

34、获取模块,用于获取待定位文本;

35、预测模块,用于将所述待定位文本输入至预先训练的知识探测模型中,预测所述待定位文本在大语言模型中每层对应的激活值,输出多个预测激活值,其中,所述知识探测模型通过训练文本和所述训练文本对应的训练标签训练得到,所述训练标签是所述大语言模型针对所述训练文本经过一轮前向过程计算生成的,所述训练标签用于表征所述大语言模型对所述训练文本的响应程度,所述训练标签对应的值越高表明所述训练文本存储在大语言模型中对应层的概率越高;

36、定位结果获取模块,用于将最大所述预测激活值在所述大语言模型中所属的层数作为所述待定位文本的定位结果。

...

【技术保护点】

1.一种大语言模型内部知识定位探测方法,其特征在于,所述方法包括:

2.根据权利要求1所述的大语言模型内部知识定位探测方法,其特征在于,所述知识探测模型的训练样本是由大语言模型生成的,所述大语言模型包括嵌入层和多层堆叠的transformer块,所述多层堆叠的transformer块中每个块的结构相同,每个所述transformer块包含多头自注意力层和全连接映射层两个子层,对每个所述子层进行层归一化操作,并对两个所述子层中间进行残差连接,对每个所述transformer块之间进行残差连接;

3.根据权利要求2所述的大语言模型内部知识定位探测方法,其特征在于,所述知识探测模型的训练样本的获取步骤具体包括:

4.根据权利要求1所述的大语言模型内部知识定位探测方法,其特征在于,所述知识探测模型为对任意神经网络模型进行训练得到的,所述知识探测模型的训练步骤包括:

5.根据权利要求4所述的大语言模型内部知识定位探测方法,其特征在于,所述神经网络模型的网络结构为基于transformer的网络结构,所述网络结构包含一个嵌入层、m层自注意力模块和一个线性层,所述知识探测模型的训练步骤具体包括:

6.根据权利要求1所述的大语言模型内部知识定位探测方法,其特征在于,所述方法还包括:

7.一种大语言模型内部知识定位探测系统,其特征在于,所述系统包括:

8.根据权利要求7所述的大语言模型内部知识定位探测系统,其特征在于,所述知识探测模型的训练样本是由大语言模型生成的,所述大语言模型包括嵌入层和多层堆叠的transformer块,所述多层堆叠的transformer块中每个块的结构相同,每个所述transformer块包含多头自注意力层和全连接映射层两个子层,对每个所述子层进行层归一化操作,并对两个所述子层中间进行残差连接,对每个所述transformer块之间进行残差连接;

9.一种电子设备,其特征在于,包括:

10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-6中任一项所述的大语言模型内部知识定位探测方法。

...

【技术特征摘要】

1.一种大语言模型内部知识定位探测方法,其特征在于,所述方法包括:

2.根据权利要求1所述的大语言模型内部知识定位探测方法,其特征在于,所述知识探测模型的训练样本是由大语言模型生成的,所述大语言模型包括嵌入层和多层堆叠的transformer块,所述多层堆叠的transformer块中每个块的结构相同,每个所述transformer块包含多头自注意力层和全连接映射层两个子层,对每个所述子层进行层归一化操作,并对两个所述子层中间进行残差连接,对每个所述transformer块之间进行残差连接;

3.根据权利要求2所述的大语言模型内部知识定位探测方法,其特征在于,所述知识探测模型的训练样本的获取步骤具体包括:

4.根据权利要求1所述的大语言模型内部知识定位探测方法,其特征在于,所述知识探测模型为对任意神经网络模型进行训练得到的,所述知识探测模型的训练步骤包括:

5.根据权利要求4所述的大语言模型内部知识定位探测方法,其特征在于,所述神经网络模型的网络结构为基于transformer的网...

【专利技术属性】
技术研发人员:陶建华张帅车飞虎
申请(专利权)人:清华大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1