一、这篇论文解决什么问题
模型的可解释性:
- 类别判别性(class-discriminative):不同类别画出来的区域不一样
- 高分辨率(high resolution):最好是和原图一样,可以找到细粒度的信息,从像素级别可以知道到底是哪部分使得网络预测出相应的类别
- 与人类直觉一致
CAM的局限性:
- 必须有GAP层,所以得修改模型结构,换来了可解释性的同时牺牲了精度
- 必须有GAP层,修改了模型结构后,需要重新训练
- 必须有GAP层,所以能应用的场景也有限
- 只能分析最后一层卷积操作后的输出
本文提出的:Grad-CAM(Gradient-weighted Class Activation Mapping)
二、Grad-CAM、Guided Grad-CAM
Grad-CAM:
如何计算针对第c类的第k个channel的权重: