特征筛选工具

本文介绍了feature-selector工具,这是一个用于特征筛选的Python库,旨在减少模型复杂度并提高可解释性。通过查找缺失严重、单值、高相关性及低重要性的特征,该工具帮助优化特征选择。示例展示了如何使用该库处理信用风险预测数据,通过可视化图表展示特征状态,并展示特征数量与模型性能的关系。
摘要由CSDN通过智能技术生成

做模型时常常是特征越多模型准确率越高(至少在训练集上)。但过多的特征又增加了数据收集、处理、存储的工作量,以及模型的复杂度。

在保证模型质量的前提下,我们希望尽量少地使用特征,这样也间接地加强了模型的可解释性。一般来说,为避免过拟合,特征尽量控制在实例个数的1/20以下,比如有3000个实例,则特征最好控制在150以下。

除了特征的具体个数,特征工程中也经常遇到某些特征严重缺失,特征相关性强,一些特征不但无法给模型带来贡献,反而带来噪声等问题。

本篇介绍特征筛选工具feature-selector,在github上有1.8K星,它使用少量的代码解决了特征筛选中的常见问题,用法简单,便于扩展;同时也提供了作图方法,以更好地呈现特征效果。

下载地址

https://github.com/WillKoehrsen/feature-selector

核心代码

其核心代码文件只有feature_selector/feature_selector.py(600多行代码),所有方法都定义在FeatureSelector类中,因此,不用安装,只需要将该文件复制你的项目中即可使用。

功能点

  • 寻找缺失严重的特征
  • 寻找仅有单值的特征
  • 寻找相关性强的特征(皮尔森相关系数,默认只考虑数值型)
  • 寻找特征重要性为0的特征(根据gbm模型)
  • 寻找特征重要性低的特征(根据gbm模型)

示例代码

示例及效果见:Feature Selector Usage.ipynb

代码中使用Kaggle比赛中信用风险预测的数据,为分类问题。

其中包含10000条数据,122个特征;将其TARGET字段作为标签,其它字段作为预测特征。

首先用训练数据建立类的实例:

fs = FeatureSelector(data = train, labels = train_labels)

后面逐一列出了各个函数的用法,此处不再一一列举。

图示

工具提供plot_xxx等方法具象地展示了数据情况:

  • 数据缺失图
    该图横坐标为缺失比例,纵坐标为特征个数,例如第一列为缺失比例在0-0.1之间的特征约60多个。

  • 特征取值图
    该图横坐标为特征取值个数,纵轴为特征个数,例如第一个柱表示将近100个特征取值的个数在1-1000之间,最后一柱表示有几个特征有上万种取值。

  • 特征相关性
    下图中列出了相关系数大于0.98的特征(未列出所有特征),同时还提供fs.record_collinear()方法列出各个特征对及其相关系数。

  • 特征重要性
    工具默认使用lightgbm模型计算特征重要性,在调用方法时需要指定损失函数,以及使用分类方法还是回归方法,迭代次数等等。工具可显示其前N个重要特征。另外,还可以参考下图,查看模型特征个数与模型效果的关系,下图显示:将模型参数简化为122个后,模型准确率几乎不变。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值