【技术实现步骤摘要】
本专利技术属于自然语言处理,具体涉及一种知识感知的图像分类可解释性方法。
技术介绍
1、深度神经网络(dnn)架构被设计得越来越复杂,模型规模不断扩大,在人工智能各个领域取得了前所未有的进步。尽管dnn具有诸多优势,但它们并不完全透明,通常被视为“黑箱”算法,这可能会损害用户对这些系统的信任,从而降低其可用性。因此,模型可解释性研究具有非常重要的意义。
2、模型可解释性方法主要可以分为两类:功能分析和决策分析。功能分析方法试图通过研究决策与图像之间的关系来探究模型的整体行为。但是,该类方法通常缺乏对模型内部模块的深入理解,可能无法提供对决策过程的全面理解。决策分析方法通过分析内部模块机制来解释模型的决策过程。但是该类方法的解释过程不易于人们理解。
3、近年来,有许多研究工作尝试建立模型与概念之间的关系来解释模型的决策过程,由于缺乏知识指导,仍然存在以下挑战:(1)忽略了概念的完整性。这些方法选择了一组与图像类别密切相关的概念作为模型预测的关键概念,但它们并不保证这些概念足以解释模型预测结果。例如针对“卧室”类别,
...【技术保护点】
1.一种知识感知的图像分类可解释性方法,其特征在于,包括以下步骤:
2.根据权利要求1所述的一种知识感知的图像分类可解释性方法,其特征在于,所述步骤1中概念LC(xi)是通过计算神经元ft与图像xi中概念之间的相关性得到的概念集合,计算公式如下:
3.根据权利要求2所述的一种知识感知的图像分类可解释性方法,其特征在于,所述相关性计算函数采用交并比函数。
4.根据权利要求1所述的一种知识感知的图像分类可解释性方法,其特征在于,所述步骤2中核心概念建模,具体步骤为:
5.根据权利要求1所述的一种知识感知的图像分类可解释性方法
...【技术特征摘要】
1.一种知识感知的图像分类可解释性方法,其特征在于,包括以下步骤:
2.根据权利要求1所述的一种知识感知的图像分类可解释性方法,其特征在于,所述步骤1中概念lc(xi)是通过计算神经元ft与图像xi中概念之间的相关性得到的概念集合,计算公式如下:
3.根据权利要求2所述的一种知识感知的图像分类可解释性方法,其特征在于,所述相关性计算函数采用交并比函数。...
【专利技术属性】
技术研发人员:关勇,李茹,郭少茹,张虎,谭红叶,
申请(专利权)人:山西大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。