[2022]李宏毅深度学习与机器学习第九讲(必修)-机器学习的可解释性

做笔记的目的

1、监督自己把50多个小时的视频看下去,所以每看一部分内容做一下笔记,我认为这是比较有意义的一件事情。
2、路漫漫其修远兮,学习是不断重复和积累的过程。怕自己看完视频不及时做笔记,学习效果不好,因此想着做笔记,提高学习效果。
3、因为刚刚入门深度学习,听课的过程中,理解难免有偏差,也希望各位大佬指正。

为什么需要可解释性

就算模型知道答案,但是不代表智能或者知道本质。
在这里插入图片描述
在一些领域如医疗、银行、判案里面应用深度学习的技术,如果不能给出为什么这样做仅仅只是一个答案,可能并不具有说服性,我们需要一个这么做到原因给上级或者老板交差,就像第二个图片一样,给一个理由礼让的概率就会非常大。
在这里插入图片描述
在这里插入图片描述
同时如果知道模型为什么这么做,那么我们就可以进一步改进模型。
在这里插入图片描述
有人会认为不可解释就不应该做,但是这并不对。explainable的意思是本来是个黑箱,我们给予他们解释,interpretable是原来就不是黑箱,我们找到一个解释。
在这里插入图片描述
Explainable ML分为两类
在这里插入图片描述

Local Explanation

Which component is critical?

我们可以改造或删除components,如果结果改变了,那么说明这个重要
在这里插入图片描述
第二个方法是计算gradient,改变某一个输出,看看loss,如果loss变化大说明重要,这个技术叫做Saliency Map。
在这里插入图片描述
亮说明重要,可以看到第二个图亮的地方是四周,这就有问题了。
在这里插入图片描述在这里插入图片描述
发现一类是黑色背景
在这里插入图片描述
所以Saliency Map技术可以帮我们找到一些解释。下面这个是真实案例,可以看到关注点并不是🐎。
在这里插入图片描述
SmoothGrad技术,随便加噪声然后生成Typical,然后平均得到最终的图
在这里插入图片描述
但是光看gradient并不一定能反映问题,如下图,鼻子长度,超过一定之后就不增加可能性了。
在这里插入图片描述

How a network processes the input data?

我们可以将每一层的输出降维然后进行可视化。
在这里插入图片描述
可以看到经过8层之后,就知道不同的人说的同一句话放在一起,说明学习到了语音信息。
在这里插入图片描述
也可以用可视化的方法解释,attention有些时候可以解释有些时候不可以解释。
在这里插入图片描述
Probing的方法是训练一个模型去判断,但是需要小心,因为可能是模型没有Train好,导致发现不了信息。
在这里插入图片描述
也不一定局限在分类器,也可以是TTS,这个会抹去声音特征提取文本特征。在这里插入图片描述
将钢琴声加入,在LSTM层之后被过滤调了。
在这里插入图片描述

Global Explanation

我们可以分析每个filter都在侦测什么。
在这里插入图片描述
也可以看模型认为什么是最符合某一类的。但是这个并不容易,有可能模型就感觉一些噪声很像数字,如下图。
在这里插入图片描述
所以我们需要加入一些限制,就可以得到一些东西,但是这个限制并不容易设置需要根据人的经验。
在这里插入图片描述
也可以用生成器,生成器产生的x在分类器里产生的分数越大越好,这样就可以看产生的image是什么样子。
在这里插入图片描述
结果如下图
在这里插入图片描述
其实我们并不关心机器想的是什么,就很像人强加的解释,给人一种安慰。

Outlook

可以用Linear Model去模拟复杂模型,然后去解释。
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值