可解释性论文阅读(三)--Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization

中间隔了一天,但是我也有看英语论文的。而且我发现自己有变化了,并且我很喜欢这种变化。以前我看论文总是喜欢扫看,但是英语不行,所以看英语论文的时候,我感觉自己变得沉静了。
还有一点,我不排斥英文论文了。遇到英文的文字,也很自然地开始读了起来。(此处插入一个女大学生欣慰的笑容~~)

进入正文:Grad-CAM也是很经典的方法啦~
不过我要改改笔记方法,写得好的原文我就在我论文里标记好了。这里只写自己的理解。
Abstract

2.我们的可视化可以:
1.适用范围广:不需要改变结构以及重新训练。
2.提供洞察一些CNN模型的失效模式(显示,看似不合理的预测的合理解释),以及CNN+LSTM在区分图像区域上表现很好。
3.通过发现数据集的偏差,诊断故障模型。
4.模型决策的文本解释
5.帮助未经训练的用户成功地区分“更强”的网络和“更弱”的网络,即使两者做出的预测完全相同。
6.弱监督定位,就是说fast-scnn、ssd、yolo-v3这些模型用于目标检测,但是都是用标注数据集做的,但是这种激活图的方法也可以框出目标大概的位置,在CAM的论文里讲了这一点,并且作者还做了实验,虽然效果比强监督的差一些,但是也很好了。

一个“良好”的视觉解释,从模型中证明任何目标类别应该具有:
(a)类区分性(即在图像中定位类别)
(b)高分辨率(即捕捉细粒度的细节)

图1:分别是对狗和猫的可视化。可是第2列虽然有很好的细节(b),但是没有区分度(不能区分出猫和狗,两种方法很相似),但是看第3列,我们的方法类别区分是很明显的。同时如果我们把grad-cam融合像素空间梯度可视化的方法就可以,既有类区分性同时也有高分辨率,看第4列。
在这里插入图片描述
图2&#

  • 3
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值