System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种多源图像数据深度学习模型的可解释性方法及系统技术方案_技高网

一种多源图像数据深度学习模型的可解释性方法及系统技术方案

技术编号:41130273 阅读:3 留言:0更新日期:2024-04-30 17:59
本发明专利技术提出一种多源图像数据深度学习模型的可解释性方法及系统,本发明专利技术通过对单源图像指标加扰的方式,计算单源图像指标的退化对图像数据深度学习模型的响应程度,据此获得各个单源图像指标对多源图像数据深度模型的贡献度,进而明确单源图像指标在多源图像深度模型的重要程度。并根据相应单源图像指标的实际含义,输出相应单源图像指标对多源图像深度模型影响程度的可解释性结果。本发明专利技术的多源图像数据深度学习模型的可解释性方法的原理可靠,可深入剖析多源图像数据深度模型“黑箱”问题,明析单源指标对多源深度模型的贡献度。

【技术实现步骤摘要】

本专利技术涉及大数据模型,特别涉及一种多源图像数据深度学习模型的可解释性方法及系统


技术介绍

1、深度神经网络作为一种重要的模型在机器学习领域占领主流,但是神经网络固有的黑箱特性影响了人们对其的信任。正如人脑思考和行动,我们事实上并不知道人脑是如何工作的,但我们依然相信人类的决策。所以人工智能的深度学习模型虽然是end-to-end的“黑箱”模型,但是深入研究其可解释性,模型结果也可令人类可信。深度学习的可解释性方法力求从多个角度对神经网络的运行机制进行了解。如何统一定义模型解释仍然是一个开放性的问题,但也有一些公认的划分标准。总的来说,模型的可解释性方法可以从3个维度进行划分:主动解释或事后解释、局部或全局解释、被解释的对象。事后解释是解释经过训练完成的神经网络模型,主动解释是在神经网络训练的过程中通过积极的改变网络结构或训练的过程提供可解释性信息。局部解释每次仅为单个输入样本进行解释,而全局解释希望对特征空间内所有可能输入的样本的决策过程进行解释(“satellite-derivedbottom depth for optically shallow waters based on hydrolight simulations”,wang y x、he x q、bai y等,remote sensing, 2022年第 14卷, 第4590页)。解释的内容中又包含四种类型:基于样本的解释希望找到数据集中有代表性的样本,用于展示模型的偏好;基于输入的解释希望将模型的预测结果归因于不同的输入特征上,会对原输入的特征进行掩盖或扰动,以衡量每个特征对输出的影响程度,进而获得每个特征对输出贡献程度(“visualizing and understanding convolutional networks”,zeiler, m. d.、fergus,r,in computer vision–eccv ,2014年,第 818-833页);解释隐藏语义研究神经网络中特定的隐藏层或神经元;形成规则的解释方法希望抽取出一组逻辑规则、或是构建决策树的近似代理模型来模拟神经网络的决策过程。基于扰动的模型可解释性方法的基本原理是,通过构建许多扰动样本,一次性对所有输入特征进行评估,最终对输入特征的重要性进行排序。现有的深度学习模型的局部可解释性方法,比如:遮挡实验(“visualizing andunderstanding convolutional networks”,zeiler, m. d.、fergus, r,in computervision–eccv ,2014年,第 818-833页),“saliency maps”(显著图)(“deep insideconvolutional networks: visualising image classification models and saliencymaps”,simonyan k.、vedaldi a、 zisserman a icir 2014,第1-8页;“explainable deeplearning for insights in el niño and river flows”,liu y m、duffy k、dy j g,nature communications,2023年第14卷第339页)是通过计算输入样本对模型的贡献程度,简单来说,通过不断地遮蔽一个个区域的像素,比如狗的某只耳朵。通过遮蔽一个个这样的小区域,判断遮蔽后对于准确率的影响程度,或者对某局部添加扰动。如果影响较大,则这个特征或是区域就越重要。如图1所示,是通过输入单源rgb图像中添加干扰,计算其显著性结果,图1(a)中黑色区域为狗的脸部区域、图1(b)中赛车的车轮也是黑色重点区域、图1(c)中男人被遮住了面部使得模型难以识别。判断出图片中的某具体特征为模型的重点关注区域,进而对模型分类具体目标作以解释。

2、现有的可解释性方法,如:lime,shap,cam等方法(“why should i trust you?":explaining the predictions of any classifier”,marco tulio ribeiro、sameersingh、carlos guestrin,https://doi.org/10.48550/arxiv.1602.04938;“consistentindividualized feature attribution for tree ensembles”,scott m. lundberg、gabriel g. erion、su-in lee,arxiv preprint arxiv:1802.03888, 2018;“grad-cam:visual explanations from deep networks via gradient-based localization”)。目前多数算法都是针对单源图像数据进行的可解释分析,尚未见公开发表的针对多源图像数据深度学习模型的可解释性方法,而在图像处理、计算机视觉等领域中多源数据也是常用数据。

3、因此,亟需一种针对多源数据深度学习模型的可解释性方法,能够解释多源数据深度模型,使模型结果更加可靠、可信。


技术实现思路

1、由于多源图像数据的深度学习模型存在的“黑箱”问题,导致人们对深度学习模型给出结果存在质疑,对此,本专利技术提出一种多源图像数据深度学习模型的可解释性方法及系统。本专利技术可用于解决多源图像数据深度模型局部可解释的计算问题。

2、本专利技术提出一种多源图像数据深度学习模型的可解释性方法及系统,包括:

3、步骤s1:将多源图像数据进行归一化处理,使得多源图像数据的数量级统一,将多源图像数据与对应的目标标签数据作为输入数据,输入初始多源图像深度学习模型中;

4、步骤s2:初始多源图像深度学习模型进行学习、训练,获得多源图像深度模型m0,记录该模型m0精确度a0;

5、步骤s3:针对各单源图像指标yn添加随机噪声干扰e得到单源图像指标yn’,再用该单源图像指标yn’替换初始多源图像深度学习模型中的yn,重新对初始多源图像深度模型进行训练,获得多源图像深度模型mn,记录该模型mn的精确度an,计算各单源图像指标对多源图像深度模型mn的精确度下降的影响程度|a0 – an|,其中脚标n为自然数,n取值等于单源图像指标的数量;

6、步骤s4:基于各单源图像指标对多源图像深度模型的精确度下降的影响程度确定相应单源图像指标的在多源图像深度模型中的贡献程度,并根据相应单源图像指标的实际含义,输出相应单源图像指标对多源图像深度模型影响程度的可解释性结果。

7、进一步的,步骤s4中,基所述贡献程度的具体确定方法是:

8、将各单源图像指标对最终结果精确度下降值进行归一化处理,计算相应单源图像指标对多源图像深度模型的影响程度值,

9、,

10、其中,w0、w1、w2.本文档来自技高网...

【技术保护点】

1.一种多源图像数据深度学习模型的可解释性方法,其特征在于,包括:

2.根据权利要求1所述的方法,其特征在于,步骤S4中,基所述贡献程度的具体确定方法是:

3.根据权利要求1或2所述的方法,其特征在于,所述初始多源图像深度学习模型包括U-net深度网络模型。

4.一种多源图像数据深度学习模型的可解释性系统,其特征在于,包括:

5.根据权利要求4所述的系统,其特征在于,所述结果输出模块基所述贡献程度的具体确定方法是:

6.根据权利要求4或5所述的系统,其特征在于,所述初始多源图像深度学习模型包括U-net深度网络模型。

【技术特征摘要】

1.一种多源图像数据深度学习模型的可解释性方法,其特征在于,包括:

2.根据权利要求1所述的方法,其特征在于,步骤s4中,基所述贡献程度的具体确定方法是:

3.根据权利要求1或2所述的方法,其特征在于,所述初始多源图像深度学习模型包括u-net深度网络模型。

<...

【专利技术属性】
技术研发人员:许颢砾杨星穆华王阳阳左磊刘丽萍李欣高皓琪瞿斌胡书隆朱卫杰陆俊万语科王新宇
申请(专利权)人:中国人民解放军国防科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1