【技术实现步骤摘要】
本专利技术涉及一种基于梯度的模型防御手段检测方法,属于人工智能对抗攻防、深度学习模型。
技术介绍
1、近年来,随着深度学习技术在各个领域的广泛应用,深度学习模型自身的脆弱性引起了社会广泛关注,尤其是对抗性攻击问题。
2、对抗攻击是指通过对深度学习模型的输入进行微小但精心设计的修改以欺骗模型导致错误输出结果的恶意行为,而对抗防御则旨在提高模型对这些恶意输入的鲁棒性。一些恶意攻击者可能通过故意向深度学习模型添加微小、通常无法检测的扰动来欺骗模型,从而导致模型错误分类。这种对抗性攻击在使用深度学习技术的生物识别、医学诊断分析、自动驾驶等安全关键领域中造成了严重威胁,并可能导致较为严重的后果。
3、目前,对抗性学习领域的研究主要聚焦于设计更具鲁棒性的模型、更高性能的攻击算法以及防御算法。然而,在对模型应用的防御算法的检测方面,尚未有系统性的研究涉足。这一方向的研究空白可能导致对抗攻击威胁的进一步加剧,因此迫切需要扩展研究,以更全面、系统地理解和解决深度学习模型所面临的安全挑战。因此,本专利技术提出了一种基于梯度的模型防御
...【技术保护点】
1.一种基于梯度的模型防御手段检测方法,其特征在于,具体包括以下步骤:
2.如权利要求1所述的基于梯度的模型防御手段检测方法,其特征在于,所述步骤S2具体为:
3.如权利要求1或2所述的基于梯度的模型防御手段检测方法,其特征在于,所述S3具体包括以下步骤:
【技术特征摘要】
1.一种基于梯度的模型防御手段检测方法,其特征在于,具体包括以下步骤:
2.如权利要求1所述的基于梯度的模型防御手段检测方法,其...
【专利技术属性】
技术研发人员:郑军,徐艾萱,张达,邱执,孙家正,
申请(专利权)人:北京理工大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。