rfe查看选出的特征_特征预处理

本文介绍了特征工程中的四个步骤,重点讲解了特征处理,包括确定标注、特征选择和特征变换。特征选择通过过滤、包裹和嵌入思想,如RFE算法,来剔除不相关或冗余的特征。特征变换涉及对数值化、离散化、归一化等操作,以改善数据质量并适应不同算法需求。文中还提供了相关代码示例,展示了如何运用这些方法。
摘要由CSDN通过智能技术生成

特征工程一般包含四部分

  1. 特征使用
  2. 特征获取
  3. 特征处理
  4. 特征监控

本文主要介绍"特征处理"的方法

  • 确定标注(或者标记、标签、label)
  • 特征选择
  • 特征变换 (对值化、离散化、数据平滑、归一化、标准化、数值化、正则化)
  • 特征降维
  • 特征衍生

确定标注

针对监督学习,确定我们的目标标签、或者目标lable

特征选择

剔除与标注不相关或冗余的特征,减少特征的个数,缩小模型训练的时间。一定程度的减少过拟合,提高模型的精确度。

最终的目的:获得能训练出更好模型的数据。

依靠统计学方法、数据模型、机器学习方法,排序特征对标签影响程度,剔除影响程度小的特征,实现降维。

特征选择3个切入思路

  1. 过滤思想
  2. 包裹思想
  3. 嵌入思想

过滤思想

评价某个特征与标签相关性,如果与标签的相关性很小,就直接去掉。
如下特征与特征相关性表:我们的特也会落入连续型、离散型数据类型:

2506c4b40dd26f9fb3c8bbe6326ab477.png
特征相关性过滤方法

包裹思想

特征选择包裹思想:最佳的特征组合是特征的子集(开始选择出几个较大的特征子集)。首先确定一个评价指标,比如准确率。找到准确率评价下,最佳的子集特征。再继续拆分这个子集,直到评价指标降低或低于阈值。

63406f0f7cd12e59870cb7f7670636e7.png
递归特征消除思想

包裹思想最经典的算法是RFE算法: 递归式特征消除:Recursive feature elimination(RFE)

分3步:

  1. 列出特征结合X: {x1,x2...xn}
  2. 构造简单模型进行训练,根据训练得到的系数,剔除较弱的特征
  3. 余下的特征重复这个过程,直到评价指标下降较大、或低于阈值,停止递归特征消除。

嵌入思想

嵌入的主体是特征,被嵌入的实体是一个简单的模型。 也就是说,根据一个简单的模型来分析特征的重要性,最常见的是使用正则化的方式来做特征选择。

比如:

1. 我们有n个特征,通过一个回归模型对标注进行回归,得到一些w权重系数,对w权重系数进行正则化/正规化,转换为一个[0,1]之间的数,这也反应了特征的重要性,重要性小的特征可以剔除。

b4fa2c9dea9e76a144a8cb8e6d18b7c5.png
正则化化后,找到低权重的特征
比如正则化后提出w_2对应的特征

30f7ef2852f4915dc5a323e394172656.png

风险:

嵌入特征是有风险的,模型选择不当,可能会丢弃一些好的特征。所以模型要尽可能选择与最终做预测的模型关联性强的模型。比如:都是用线性模型、都用分布形式一致的,图形分布一致的函数等。

代码实现:

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
数据预处理是机器学习中非常重要的一步,它包括对原始数据进行清洗、转换和归一化等操作,以便更好地使用在模型训练中。在Python中,有许多库可以帮助我们进行数据预处理特征的操作,下面是一些常用的方法: 1. 缺失值处理:常见的处理方法包括删除缺失值、填充缺失值(如均值、中位数等)、使用插值法等。在Python中,可以使用pandas库的fillna()函数来填充缺失值。 2. 特征编码:将非数值型的特征转换成数值型特征。常用的编码方法包括独热编码(One-Hot Encoding)、标签编码(Label Encoding)等。在Python中,可以使用pandas库的get_dummies()函数进行独热编码。 3. 特征缩放:将不同范围的特征值缩放到相同的范围内,以避免某些特征对模型训练的影响过大。常用的缩放方法包括标准化(Standardization)和归一化(Normalization)。在Python中,可以使用scikit-learn库的StandardScaler和MinMaxScaler类来进行特征缩放。 4. 特征选择:选择对目标变量有较强相关性的特征。常用的特征选择方法包括相关系数、方差阈值、递归特征消除等。在Python中,可以使用scikit-learn库的SelectKBest和RFE等类来进行特征选择。 5. 特征降维:将高维度的特征转换为低维度的特征,以减少特征数量和计算复杂度。常用的降维方法包括主成分分析(PCA)和线性判别分析(LDA)。在Python中,可以使用scikit-learn库的PCA和LDA类来进行特征降维。 这些是数据预处理特征的常见方法,在实际应用中根据具体情况选择合适的方法进行处理。希望对你有所帮助!如果还有其他问题,请继续提问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值