【技术实现步骤摘要】
有图像引导的故事结尾生成模型的迭代式对抗攻击方法
[0001]本专利技术涉及图像模态攻击
,尤其涉及一种有图像引导的故事结尾生成模型的迭代式对抗攻击方法,用于理解多模态文本生成模型的对抗鲁棒性,研究其可靠性和安全性
。
技术介绍
[0002]现有的对抗攻击方法主要关注单模态的数据,如图像模态的攻击方法
FGSM
,
PGD
等,及文本模态的攻击方法
BERT
‑
Attack,TextBugger
等,这类单模态攻击方法忽视了多模态数据中的信息互补性
(
如图1所示
)
不能最大程度地攻击多模态模型
。
最新的多模态攻击方法
Co
‑
attack
则简单地使用一个逐步攻击的机制,即首先扰动离散的输入
(
文本
)
,然后在输出的对抗文本的基础上扰动连续输入
(
图像
)。
这类方法很难找到多模态信息中最容易受到攻击的多模态信息对,而且
Co
‑
attack
主要面向多模态匹配和多模态分类任务
。
技术实现思路
[0003]本专利技术目的就是为了弥补已有技术的缺陷,提供一种有图像引导的故事结尾生成模型的迭代式对抗攻击方法,本专利技术可以通过迭代式寻找最容易受到攻击的多模态信息对来攻击图像引导的故事结尾生成模型
(IgSEG)
...
【技术保护点】
【技术特征摘要】
1.
一种有图像引导的故事结尾生成模型的迭代式对抗攻击方法,其特征在于:具体包括如下步骤:
(1)
输入原始文本和原始图像,从故事上下文中选择出易受攻击的词,即目标词;为每一个目标词生成多个替代词,逐个用替代词取代目标词,生成潜在的对抗文本;
(2)
将生成的潜在的对抗文本作为监督信息和原始图像输入到图像攻击算法中寻找最容易影响目标模型输出的图文信息对;如果所述易受攻击的词所对应的所有的替代词都不能达到攻击目标,则选择使得目标模型损失值最大的替代词取代该目标词,然后继续对下一个目标词用相应的替代词进行取代,迭代式地寻找最易受到攻击的图文信息对,直到攻击成功,生成多模态对抗样本;
(3)
攻击目标:将生成的多模态对抗样本输入到目标模型中生成的故事结尾的质量相对于原始文本和原始图像作为输入生成的故事结尾的质量低于预设的阈值
。2.
根据权利要求1所述的一种有图像引导的故事结尾生成模型的迭代式对抗攻击方法,其特征在于:步骤
(1)
所述的输入原始文本和原始图像,从故事上下文中选择出易受攻击的词,即目标词;为每一个目标词生成多个替代词,逐个用替代词取代目标词,生成潜在的对抗文本,具体如下:用
x
t
,x
i
表示原始的输入文本和原始图像,其中
x
t
=
[w0,...w
h
,
…
]
,
w
h
表示文本
x
t
中的第
h
个词,
F((x
t
,x
i
))
表示图像引导的故事结尾生成模型的正常输出结果,原始文本
x
t
中易受攻击的词
w
h
的重要性分值
Q
wh
为:
Q
wh
=
F((x
t
,x
i
))
‑
F((x
t@h
,x_i))
上式中
x
t@h
=
[w0,
…
,w
h
‑1,MASK,w
h+1
…
]
是用
[MASK]
取代
w
h
后的故事上下文;在原始上下文
x
t
中所有词的重要性分值
Q
x
定义如下:
Q
x
=
[Q
w1
,
…
,Q
wh
,
…
,Q
wn
]
对所有词的重要性分值集合
Q
x
以降序方式进行排序,选出分值最高的前
K
个词放入重要词集合
L
;为了给重要词集合
L
中的每一个词生成可能的扰动,以及确保生成的对抗性文本无论是语义还是人类视觉上都与原始的文本...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。