【技术实现步骤摘要】
训练用于清除对抗扰动的生成器模型的方法和电子设备
[0001]本申请涉及神经网络模型的训练,尤其涉及一种训练用于清除对抗扰动的生成器模型的方法和电子设备。
技术介绍
[0002]随着卷积神经网络的广泛使用,其背后的安全隐患逐步被人们发现。目前存在通过在原始图像中添加一些精心制作的扰动使得人眼无法感知,但却可以欺骗神经网络使得其错误分类,对抗样本中的扰动很小,这些扰动对于观察者来说是不可察觉的,且对抗样本在不同的相似的网络体系结构中具有传递性,以及在不相交的数据子集上训练的网络之间也具有传递性。对抗样本攻击多用于图像识别、图像分类、视频检测等领域。对抗样本的存在,给这些应用带来了巨大的安全挑战。比如,在自动驾驶中,自动驾驶汽车的视觉系统就是利用深度神经网络来识别行人、车辆和道路标志的。如果自动驾驶系统被对抗样本所攻击,在输入中添加精心制作的对抗样本干扰将会使得神经网络驾驶系统识别错误。若左转牌被攻击导致被识别成右转指示牌,或者停止指示牌被攻击导致识别成继续行驶,将会导致巨大的生命财产安全。
[0003]目前针对清除对抗 ...
【技术保护点】
【技术特征摘要】
1.一种训练用于清除对抗扰动的生成器模型的方法,包括:利用原始样本图像集对神经网络模型进行训练,以得到神经网络分类模型;基于所述原始样本图像集,利用对抗样本生成算法生成对抗样本图像集;根据所述原始样本图像集、所述对抗样本图像集和所述神经网络分类模型,对生成对抗网络中的判别器模型和所述生成器模型进行迭代训练,直至所述判别器模型的第一损失不大于第一预设阈值为止;将所述迭代训练结束后得到的所述生成器模型作为目标生成器模型。2.根据权利要求1所述的方法,其中,所述迭代训练中的每一轮训练包括:将所述对抗样本图像集输入到所述生成器模型中,以得到所述生成器模型输出的生成样本图像集;将所述生成样本图像集和所述原始样本图像集输入到所述判别器模型中,根据所述判别器模型的第一损失来更新所述判别器模型;将所述生成样本图像集输入到所述神经网络分类模型和更新后的所述判别器模型中,根据所述生成器模型的第二损失来更新所述生成器模型。3.根据权利要求2所述的方法,其中,所述第一损失是利用交叉熵函数计算的。4.根据权利要求3所述的方法,其中,所述第二损失为由对抗损失、分类损失和图像重构损失组成的联合损失,所述对抗损失和所述分类损失都是利用交叉熵函数计算的,...
【专利技术属性】
技术研发人员:王玉龙,石龙,王东霞,苏森,徐鹏,双锴,程祥,张忠宝,
申请(专利权)人:中国人民解放军三二八零二部队,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。