机器学习李宏毅学习笔记24


前言

机器学习模型的可解释性(上)


一、Explainable machine learning(机器得到答案的理由)

这个解释是必要的,以后会应用到医疗、自动驾驶、法律等关乎安全的行业,需要知道机器得到的答案是否犯错。深度模型虽然比线性模型效果好,但是可解释性没有线性模型好,是一个黑盒。
Explainable的目标可能是给人一个理由,让他相信机器得到的答案是正确的。
Explainable可以分为两类:local explanation和global explanation。
在这里插入图片描述
Local explainable是给一张图片(猫),问机器为什么你觉得这是(猫)。根据一张图片回答问题叫做local explanation。
Global explanation是对于一个classifier而言什么样的图片叫做(猫),不是针对一张特定的图片。

二、Local explainable

假设模型的输入叫做x,是一张影像或一段文字等等。x可以拆成多个组成部分。对影像而言可能每一个组成部分就是一个像素,对文字而言可能每一个组成部分就是一个词汇或者token。这些组成部分里面哪一个对于机器现在做出最终判断是最重要的。如何判断一个组成部分是否重要,一个方法是把一个component删除或者改造后network的输出有一个巨大的变化,那么这个component就是一个重要的。进阶方法是计算gradient,假设一张图片分为x1-xn,每个x为一个pixel,计算这张图片的loss,把某一个pixel的值加上一个△x,如果加了这个变化后,loss有巨大变化,那么这个位置对影像辨识是重要的。Loss的变化/△x越大,表示xn越重要。这个技术叫做saliency map。
在这里插入图片描述
SmoothGrad:这个方法可以让杂讯比较少。在图片上加上各种杂讯,每张图片上都计算saliency map,把这些saliency map平均起来,就得到SmoothGrad的结果。
在这里插入图片描述
光看gradient并不能反映一个component的重要性。
在这里插入图片描述
横轴是大象鼻子长度,纵轴是大象的可能性。当鼻子长到一个极限的时候,在变更长一点也不会更像大象,如果计算鼻子长度和是大象的偏微分时,得到的偏微分可能趋近于0。如果光看gradient,光看saliency map得到的结论是鼻子长度和是不是大象的关系是不重要的。


总结

视频学习地址:https://www.bilibili.com/video/BV13Z4y1P7D7/?p=25&spm_id_from=333.1007.top_right_bar_window_history.content.click&vd_source=3a369b537e1d34ff9ba8f8ab23afedec

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值