Explainable

Explainable/Interpretable ML

两种类型

  • Local Explanation
    Why do you think this image is a cat?
  • Global Explanation
    What do you think a “cat” looks like?

Point of Explainable ML

  • 解释Ml的目的并不是完全的知道Ml model 的工作原理
    • 人类的大脑同样是一个黑盒子
    • 不相信训练网络因为它是黑盒子, 但是人们相信人类的判断
  • ML Explanation的目标是让你觉得理解, 对不同的人有不同的解释

Interpretable v.s. Powerful

  • 一些模型是容易被解释的,
    • 例如,linear model 从权重可以知道feature的重要性
  • 深度学习不容易被解释
    • 黑盒子
    • 但是比linear model 更加powerful
  • desision tree
    • 可以被解释, 同时powerful?
    • 然而很多时候,tree是很复杂的, 我们用的是forest, 无法完全解释它。

Local Explanation

components 拿掉或者改动, 这个coponents 对结果的改变影响很大, 这就是重要的component
在这里插入图片描述

在这里插入图片描述在这里插入图片描述
移动灰色方块, 灰色放在蓝色部分辨识狗狗几率变小, 红色部分, 机器辨识度高。这方法要小心方块的大小。方块颜色也要选择。画saliency map,通过, 改变x向量,计算gradient, 看哪些grdient 比较大, 计算哪些pixcel 比较重要,每个点的亮度表示,yk对xn的偏微分绝对值
在这里插入图片描述在这里插入图片描述
其他方法gradient 有时会遇到瓶颈, 可以使用右边2种方法。

interpretation 同样可以会被attack, 一些杂讯会使saliency变化很大。

Global Explanation

Activation Minimization

手写数字分类的例子

在这里插入图片描述在这里插入图片描述
取出模型对应数字的output, 使他yi几率最大, 显示理想的数字图片长什么样子。yi 越大越好, 同时图片看起来像数字。 R(x)表示图片看起来多像一个数字。因为多数区域没有数值, 这里R(x)把所有有数值的pixel 加起来。计算通过pixel的强度。

在这里插入图片描述画出心里理想部件的时候, 需要增加很多限制,然后暴调参数

在这里插入图片描述在这里插入图片描述
找到一个最好的z, 通过image generator, 产生一个image,图片通过classifier以后,得到的y的一个class 越大越好。 很深的network。可以产生的结果, 心里的蚂蚁,心里的火山,心里的修道院

用一种模型解释另外的模型

一些模型很容易被解释, 用容易解释的模型去模仿不易解释的模型
在这里插入图片描述

lime
在这里插入图片描述在这里插入图片描述
在这里插入图片描述在这里插入图片描述

查看哪些segment,权重1, 表示对结果影响最大。

在这里插入图片描述在这里插入图片描述
在这里插入图片描述min Los, decision tree的复杂程度也要越小越好—》 tree regularization。
怎么微分?train一个network , 给他一个networkb的参数, 可以计算出 networkb 转成decision tree 的深度。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值