利用文本特征构建自然隐蔽的后门攻击方法及装置制造方法及图纸

技术编号:38467658 阅读:30 留言:0更新日期:2023-08-11 14:44
本发明专利技术公开一种利用文本特征构建自然隐蔽的后门攻击方法,具体为:利用干净训练数据集D

【技术实现步骤摘要】
利用文本特征构建自然隐蔽的后门攻击方法及装置


[0001]本专利技术属于信息安全
,具体涉及一种利用文本特征构建自然隐蔽的后门攻击方法,还涉及一种利用文本特征构建自然隐蔽的后门攻击装置。

技术介绍

[0002]近年来文本预训练模型广泛的应用于基于自然语言处理的各个领域,成为全世界计算机科学家门研究的重点之一。然而,预训练模型的应用与信息安全密不可分,由于预训练模型规模较大,通常在使用过程中会外包给第三方进行训练或者从第三方下载训练好的模型进行应用,如果第三方不可信则会出现较大的安全隐患,因此,预训练模型的安全问题也受到研究人员的广泛关注。
[0003]后门攻击是针对人工智能模型的一种新兴的安全威胁,后门攻击通常在训练模型的过程中将触发器注入到受害模型中,使得受害模型在测试阶段面对正常的文本输入可以正常工作,但是,若输入含有预先设计的触发特征时,受害模型便会触发后门输出特定的结果。在实际应用中,如果人脸识别系统被恶意的第三方注入了后门,在日常使用过程中可以正确地识别一般的人脸,但是当遇到戴着预设颜色眼镜(触发器)的人脸时,无论戴着眼本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.利用文本特征构建自然隐蔽的后门攻击方法,其特征在于,具体为:步骤1:利用干净训练数据集D
c
对预训练模型进行训练,得到干净模型F
c
,其中D
c
中文本的对应类别标签为y;步骤2:对干净训练数据集D
c
进行特征提取,构建触发器候选词库C
w
;步骤3:利用3

5个区别于干净训练数据集D
c
领域的备选数据集,构建低频额外数据集词库E
w
;步骤4:通过低频额外数据集词库E
w
对触发器候选词库C
w
进行排序,选出词频最低的3

5个词语并从这个3

5个词语中随机选择一个词语作为后门触发器W
t
;步骤5:在黑盒条件下,使用后门触发器W
t
构建文本中毒样本数据集D
p
;步骤6:构建非目标类增强数据集D
e
;步骤7:获得训练好的后门模型;步骤8:构建后门文本样本测试集并将其输入到步骤7中的训练好的后门模型中,得到模型后门触发结果。2.根据权利要求1所述的利用文本特征构建自然隐蔽的后门攻击方法,其特征在于,步骤2具体按照以下步骤实施:步骤2.1:设定目标类别标签为x,将干净训练数据集D
c
中所有标签y≠x的数据组成数据集D
c_nontarget
,提取D
c_nontarget
的文本特征,文本特征提取方式是利用反文档频率计算,反文档频率的公式表达式为:步骤2.2:从D
c_nontarget
中选择的词语,并按照由低到高进行排序,这些词语构建触发器候选词库C
w
。3.根据权利要求2所述的利用文本特征构建自然隐蔽的后门攻击方法,其特征在于,步骤3具体按照以下步骤实施:利用3

5个区别于干净训练数据集D
c
领域的备选数据集,将所有备选数据集中的句子收集到一起,计算所有句子中出现单词的频率并按照频率由高到低进行排序,频率计算公式为:文本中所有单词根据单词的值由低到高进行排序,构成低频额外数据集词库E
w
。4.根据权利要求3所述的利用文本特征构建自然隐蔽的后门攻击方法,其特征在于,步骤4具体按照以下步骤实施:步骤4.1:计算触发器候选词库C
w
中所有单词的触发器得分,将C
w
中的词语在低频额外数据集词库E
w
进行查询并找到单词对应的值,计算触发器候选词库C
w
中每个单词的触发器得分按照触发器得分由低到高进行排序得到重新排序后的C

w
,每个单词的触发器得分计算公式为:步骤4.2:选择重新排序后的C

w
中的前3

5个单词,并从这3

5个单词中随机选择一个作为最终的后门触发器W
t
。5.根据权利要求2所述的利用文本特征构建自然隐蔽的后门攻击方法,其特征在于,步
骤5具体按照以下步骤实施:在...

【专利技术属性】
技术研发人员:高海昌常国沁张宇鸿姚舟罗嘉诚
申请(专利权)人:西安电子科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1