一种基于对抗样本迁移的黑盒大语言模型测试方法技术

技术编号:43841772 阅读:47 留言:0更新日期:2024-12-31 18:37
本发明专利技术公开了一种基于对抗样本迁移的黑盒大语言模型测试方法,涉及语言模型测试技术领域。包括:S1、获取原始样本以及源白盒LLM;S2、基于原始样本对源白盒LLM进行分析,得到用于测试具有相似功能的目标黑盒LLM的对抗样本;S3、对源白盒LLM进行注意力分析来确定原始样本中的重要元素;S4、对重要元素添加扰动,得到能有效触发错误的对抗样本;S5、基于S4中得到的对抗样本,进行迁移测试,并输出LLM的鲁棒性测试结果。本发明专利技术同时综合多个模型的内部输出信息提高对抗样本的泛化性,从而用于黑盒LLM模型的测试。相比于黑盒测试,无需对目标模型进行任何额外的查询,适用于目标模型查询受限的应用场景。

【技术实现步骤摘要】

本专利技术涉及语言模型测试,尤其涉及一种基于对抗样本迁移的黑盒大语言模型测试方法


技术介绍

1、深度神经网络(deep neural network,dnn)建立了类似人脑神经元的分层结构,通过引入非线性的激活函数,将输入的数据逐层转换为高维特征,从而建立底层输入到高层语义的复杂映射关系,可基于大规模数据集学习特定能力,进而完成一系列任务,专注于自然语言领域的dnn模型被称为语言模型(language model,lm)。2018年,google的研究团队开创性地提出了预训练语言模型bert,激发了大量以预训练语言模型为基础的自然语言处理研究,也引领了自然语言处理领域的预训练范式。大语言模型(large languagemodel,llm)是指规模较大的预训练语言模型,这类模型通常包含数十亿甚至数万亿个参数。大型语言模型通过更大规模的数据和更复杂的模型架构,能够捕获更深层次的语言规律和更细致的语义信息。它们在多种语言任务上表现出色,能够生成更加流畅和准确的文本。但是,与传统软件不同,llm的结构更为复杂,且其内部的逻辑关系非人为构建,而是基于大量数据训练本文档来自技高网...

【技术保护点】

1.一种基于对抗样本迁移的黑盒大语言模型测试方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的一种基于对抗样本迁移的黑盒大语言模型测试方法,其特征在于,

3.根据权利要求1所述的一种基于对抗样本迁移的黑盒大语言模型测试方法,其特征在于,

4.根据权利要求3所述的一种基于对抗样本迁移的黑盒大语言模型测试方法,其特征在于,

5.根据权利要求4所述的一种基于对抗样本迁移的黑盒大语言模型测试方法,其特征在于,

6.根据权利要求5所述的一种基于对抗样本迁移的黑盒大语言模型测试方法,其特征在于,

【技术特征摘要】

1.一种基于对抗样本迁移的黑盒大语言模型测试方法,其特征在于,包括以下步骤:

2.根据权利要求1所述的一种基于对抗样本迁移的黑盒大语言模型测试方法,其特征在于,

3.根据权利要求1所述的一种基于对抗样本迁移的黑盒大语言模型测试方法,其特征在于,

<...

【专利技术属性】
技术研发人员:崔展齐乔塬心
申请(专利权)人:北京信息科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1