【技术实现步骤摘要】
本专利技术涉及深度神经网络的可解释性研究领域,尤其涉及一种自适应语义特征的无监督解释方法。
技术介绍
1、深度神经网络的可解释性研究是为了揭开深度神经网络的黑盒属性,并为解释其决策行为提供一套合理的方法论。此前,关于深度神经网络的解释方法的基本框架主要由定义输入单元和计算其重要性组成。然而,如何定义输入单元和确定提取多少特征(输入单元)仍然是可解释性方法的基本框架所面临的挑战。由于输入单元中缺乏语义信息,这阻碍我们理解它们的具体意义并进行结构化归因分析,因此现有方法大多不提供特征级的可解释性。对于调节和优化特征表达而言,自适应地确定输入单元的数量和定义输入单元的语义同样非常重要,这是为了对特征表示进行限制,以防止实体被无限地细分,并提高计算效率。
2、深度神经网络的可解释性已经得到了广泛的研究,然而解释方法很少关注输入单元的语义,其构建通常选择彼此之间联系较弱的孤立像素。例如,recipro-cam保留或删除一些图像区域来计算重要性,其简单的图像分割操作严重削弱了输入单元的可读性。随机输入采样解释(rise)方法使用蒙特卡罗
...【技术保护点】
1.一种基于自适应语义特征的无监督解释方法,其特征在于,设计一个针对深度神经网络的分类任务的视觉解释方法,提供特征级的可解释性和显著性视觉解释,构建的可解释性网络包括特征级可解释性模块,自适应特征表达模块和特征重要性计算模块;特征级可解释性模块无监督地提取高级语义特征,以提供特征级的可解释性,自适应特征表达模块将提取多少个输入单元转换为维度缩放解决方案在非负矩阵分解过程中解决降维的目标维度确定问题,特征重要性计算模块引入了Shapley值法,计算特征的重要性,具体包括:
【技术特征摘要】
1.一种基于自适应语义特征的无监督解释方法,其特征在于,设计一个针对深度神经网络的分类任务的视觉解释方法,提供特征级的可解释性和显著性视觉解释,构建的可解释性网络包括特征级可解释性模块,自适应特征表达模块和特征重要性计算模块;特征级可解释...
【专利技术属性】
技术研发人员:李孝杰,袁月璨,黄占鳌,杨善敏,吴锡,
申请(专利权)人:成都信息工程大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。