permutation importance

文章探讨了如何衡量特征对模型预测的重要性,重点介绍了Permutation Importance(PI)方法。PI通过比较特征随机打乱前后模型的性能变化来评估特征的影响力。在训练一个模型后,对验证集的每个特征值进行打乱,计算得分差异,以此确定特征的重要性。这种方法在处理大量特征时,避免了训练多个模型的繁琐过程。
摘要由CSDN通过智能技术生成

哪些特征对预测的影响最大? 这或许是对一个模型提出的最基本问题之一。
这个概念就是所谓得到特征重要性。
有多种方法来衡量特征重要性。这篇文章Machine Learning Explainability Home Page采用了permutation importance(在此简称PI)方法。

PI思路

常规思路,我们或许很容易想到,在训练模型的时候很容易得到特征得到重要性,比如树模型直接可以输出特征重要性,但是这个特征对整体的预测效果有多大影响啊?我们可以这样做,首先让全部特征参与训练然后预测得出score1(mse,rmse等),然后依次去掉一个特征去训练模型(有多少个特征就会训练多少个模型),分别预测会得到对应的缺失特征的得分score2,score2-score1就代表一个特征的预测能力。然而,有100个特征岂不是要训练100个模型。

PI思想
  • 用上全部特征,训练一个模型。
  • 验证集预测得到得分。
  • 验证集的一个特征列的值进行随机打乱,预测得到得分。
  • 将上述得分做差即可得到特征x1对预测的影响。
  • 依次将每一列特征按上述方法做,得到每二个特征对预测的影响。

具体例子以及说明参见:Machine Learning Explainability Home Page

  • 0
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值