深度学习可解释性方法的一些概念

理解和解释深度学习模型的决策过程和原理。

1 特征可视化

通过可视化神经网络的中间层来理解模型是如何识别和处理输入的,比如卷积核可视化是一种找到使某个卷积核输出最大的图像,从而理解该卷积核关注的特征的方法。

2 模型敏感性分析

通过改变输入并观察输出的变化来理解模型对输入的敏感度,例如,可以通过添加噪声或者移除某些特征,然后观察模型的输出是否发生变化,以此来理解哪些特征对模型的预测最重要。

3 局部可解释模型

局部可解释模型(LIME)通过在输入空间中采样,并在这些点上训练一个简单的模型(如线性模型),来近似原始模型的行为,然后通过解释这个简单模型来理解原始模型的行为。

4 深度学习解释器

(SHAP,DeepLIFT等算法)量化每个特征对模型输出的贡献的方法,这些方法可以帮助理解哪些特征对模型的预测最重要,从而提高模型的可解释性。

4.1 SHAP算法

传统的 feature importance 只告诉哪个特征重要,但并不清楚该特征如何影响预测结果。SHAP 算法的最大优势是能反应每一个样本中特征的影响力,且可表现出影响的正负性。SHAP算法的主要思想为:控制变量法,如果某个特征出现或不出现,直接影响分类结果,那么该特征一定是比较重要的。因此,可以通过计算该特征出现或不出现的各种情况,来计算其对于分类结果的贡献度。在 SHAP 算法中用沙普利(Shapley )值表示不同特征对于预测结果的贡献度。Shapley 值是博弈论中使用的一种方法,它涉及公平地将收益和成本分配给在联盟中工作的行动者,由于每个行动者对联盟的贡献是不同的,Shapley 值保证每个行动者根据贡献的多少获得公平的份额。

4.2 DeepLIFT算法

DeepLIFT(Deep Learning Important Features)通过计算特征对模型预测的贡献来理解输入特征的重要性。DeepLIFT主要是为了解决梯度消失和梯度爆炸问题,提供比简单梯度方法更稳定和直观的解释。它具有以下优点:

  • 更稳定:DeepLIFT通过使用参考基线和比例因子解决了梯度消失和梯度爆炸问题,比简单梯度方法更稳定。
  • 直观解释:它提供了更直观的特征重要性解释,有助于理解模型的内部机制。

5 神经网络剪枝

一种可以简化模型的方法,它通过移除不重要的神经元或者连接来减少模型的复杂性。这样可以使模型更容易理解,从而提高其可解释性。

6 参考

[1] 深度学习的可解释性问题 – 夜明的孤行灯 (huangyunkun.com)

  • 5
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阿航的博客

我比你有钱,请不要打赏!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值