预测模型可解释性:几种十分常用的可解释性方法!

对于可解释性,应该不会陌生,但是,要往深入的说,这里头名堂可不少。下面,就一起结合这篇文献中的几张图,谈谈各种可解释性。

图1:自带可解释性方法

这种可解释性最常见,也是最好用的,即在python或R语言中,模型都有自带的importance属性,尤其是"树类模型"。例如下图,作者给出了随机森林的importance排序结果。

图2:SHAP可解释性

这种技术也不会陌生了,近些年是主流,应用得很多,并且可视化效果很好。如下图,作者给出了全局可解释性和某个变量的可解释性。当然,SHAP还有更全面的技能,那就是局部可解释性和交互作用分析。

图3:局部可解释性LIME

除了SHAP中带有局部可解释性外,还有一种相对常用的局部可解释性方法是LIME。但LIME有个优势,在于其对模型没有限制,无论是简单或复杂模型,其都能开展局部可解释性,应用很广。如下图,展示了每个类别的预测概率,各个变量的具体数值以及其对最终预测的贡献大小。

图4:排列重要性

全局可解释性除了常用的importance和SHAP技术外,还有这种排列重要性(permutation importance),这种技术的好处与上面一样,即不认模型,无论是简单或复杂模型,都能给出重要性。一般而言,将排列重要性中权重>0的视为重要预测变量。而权重为0或<0的变量对预测贡献很小。

可解释性技术这么多,选择不同方法结果也往往不多,因此,可以都试试,或许能发现一些意想不到的结果。方法给大家点出来了,实现方式网上都有现成代码,可做针对性学习~

  • 3
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

清纯世纪

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值