![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经网络可解释性
文章平均质量分 91
Stalker_DAs
咕咕咕
展开
-
Bias Also Matters: Bias Attribution for Deep Neural Network Explanation 论文阅读笔记
此前提出的归因可解释方法认为可以将一个非线性的DNNs模型,在输入图像位置展开成线性模型(即g(x)=wx+b),以解释不同输入特征的重要性。但这些方法均忽略了偏置项$b$的重要性。本文发现偏置项b对于解释一个神经网络的归因来说是不可或缺的,并且提出一个全新的算法“bias back-propagation(BBp)”从网络输出到输入计算偏置项的贡献度,得到偏置的归因。与基于反向传播的算法结合,可以完全还原出对于输入图像的局部线性模型g(x)=wx+b。原创 2023-10-24 22:43:56 · 164 阅读 · 0 评论 -
Axiomatic Attribution for Deep Networks (Integrated Gradients) 论文阅读笔记
本文首先提出两个可解释性模型的基本公理(fundamental axioms),敏感性(Sensitivity)和实现不变性(Implementation Invariance)。之后提出一个全新的可解释性算法积分梯度(Integrated Gradients),能有效解决现有梯度的可解释方法仅对单个图像进行解释,存在梯度饱和的问题。原创 2023-10-21 17:43:39 · 259 阅读 · 1 评论 -
On Pixel-Wise Explanations for Non-Linear Classifier Decisions by Layer-Wise Relevance Propagation笔记
本文与基于梯度的可解释性方法不同,提出一个对非线性分类器的在像素级别进行分解,来理解分类决策的通用可解释性模型。可以可视化单个像素对预测结果的贡献,以热力图的方式表明模型的关注区域。原创 2023-10-16 10:24:18 · 299 阅读 · 0 评论 -
Model Agnostic Supervised Local Explanations 论文阅读笔记
MAPLE作为一个解释模型本身具有极高的预测准确率,能够提供faithful self explanations,因此能避免LIME中提到的准确率和可解释性之间的权衡(可以理解为用决策树创建了一个效果与待预测模型相同的模型,后续的工作对这个决策树进行)。其次,MAPLE具有两种不同的解释方式,一种是基于样本的解释,另一种是局部解释。同时,它还能够识别出数据中的全局模式,这使得它能够更好地理解数据的整体特征。由于MAPLE可以同时考虑全局和局部信息,因此它能够发现局部解释的局限性。原创 2023-08-25 21:45:47 · 136 阅读 · 0 评论 -
“Why Should I Trust You?“ Explaining the Predictions of Any Classifier 论文阅读笔记
现有机器学习(深度学习)方法大多为黑盒模型,即我们无法像线性回归、决策树等方法一样理解模型的决策。为解决上述问题,本文提出LOCAL INTERPRETABLE MODEL-AGNOSTIC EXPLANATIONS(LIME)—— 一个全新的可解释技术,以对任何分类器的单个预测结果,生成可靠且易于理解的解释。此外,本文还以一种非冗余(non-redundant)的方式结合多个**可解释模型**,生成对预测模型的整体理解。原创 2023-08-25 15:22:58 · 60 阅读 · 0 评论 -
Deep Inside Convolutional Networks Visualising Image Classification Models and Saliency Maps 论文阅读笔记
本文可以说是通过梯度计算类激活图的开山之作,主要提出两个基于计算类得分相对于输入图像梯度的可视化技巧:第一种方法生成的图像能使类别得分最大化,从而将 ConvNet 捕捉到的类别概念可视化,查看使每类预测置信度最大的图像。第二种方法是针对给定图像和类别,计算类激活图。并且,本文在最后还对基于梯度的基于反卷积的模型进行了讨论。原创 2023-08-14 14:38:16 · 127 阅读 · 0 评论 -
Grad-CAM++: Improved Visual Explanations for Deep Convolutional Networks 论文阅读笔记
本文针对Grad-CAM中出现的问题,例如当图像中存在多个目标或单个物体存在多个部分时,显著图无法将其全部标注、显著图无法完整地捕获整个对象的结构。面对上述问题,本文在CAM和Grad-CAM的基础上提出一个全新的可解释性算法Grad-CAM++,下面将对Grad-CAM++算法进行详细介绍。原创 2023-08-14 10:08:22 · 912 阅读 · 0 评论 -
LayerCAM Exploring Hierarchical Class Activation Maps for Localization 论文阅读笔记
期刊:IEEE Transactions on Image Processing(Tip)时间:2021年本文针对现有类激活图的方法如CAM、Grad-CAM、Grad-CAM++等方法构建的类激活热力图不够精确的问题,提出一个全新的算法LayerCAM。它可以为 CNN 的不同层生成可靠的类激活图。这个属性使LayerCAM能够收集到对象定位信息从粗略(粗略的空间定位)到精细(精确的细粒度细节)级别,并可以进一步将它们整合成一个高质量的类激活图,可以更好地突出与对象相关的像素。原创 2023-08-12 22:40:07 · 713 阅读 · 0 评论 -
Score-CAM:Score-Weighted Visual Explanations for Convolutional Neural Networks 论文阅读笔记
会议:CVPR时间:2020年现有类激活图的方法大多基于梯度如Grad-CAM、Grad-CAM++,这些方法容易受到梯度饱和、梯度噪声等问题的影响。为此本文提出一个全新的post-hoc的类激活图方法Score-CAM。Score-CAM通过每个激活图在目标类上的前向传递分数来获得其权重,从而摆脱了对梯度的依赖,通过权重与激活图的线性组合得到最终结果。原创 2023-08-12 22:29:13 · 464 阅读 · 0 评论 -
Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization 论文阅读笔记
会议:ICCV时间:2017年本论文对CAM进行改进,解决了CAM必须添加GAP层,并重新训练等问题,提出Gradient-weighted Class Activation Mapping(Grad-CAM)。原创 2023-08-07 16:03:54 · 119 阅读 · 0 评论 -
Striving for simplicity: the all convolutional net 论文阅读笔记
会议:ICLR时间:2015年。原创 2023-08-07 10:59:34 · 434 阅读 · 1 评论 -
Visualizing and Understanding Convolutional Networks 论文阅读笔记
会议:ECCV时间:2014年本文是CNN领域可视化理解的开山之作,这篇文献告诉我们CNN的每一层到底学习到了什么特征,然后作者通过可视化进行调整网络,提高了精度。本文主要提出了一种新的可视化技术,该技术可以深入了解不同中间特征层(卷积核)的功能和分类器的操作,而通过了解这些功能或对神经网络模型进行诊断,能够辅助人们对网络模型进行优化。本文通过上述可视化方法对AlexNet进行改进,提出ZFNet。原创 2023-08-07 10:56:41 · 100 阅读 · 0 评论 -
Learning Deep Features for Discriminative Localization(CAM)论文解读
会议:CVPR时间:2016年本文在实验过程中发现,全局平均池化层(Global Average pooling)能够在图像级别对要检测的目标进行有效定位,并提出一个全新的方法class activation maps(CAM)。原创 2023-07-31 14:18:16 · 112 阅读 · 0 评论