机器学习-特征工程与模型评估2

特征选择

特征选择主要有两个目的

  • 减少特征数量、降维,使模型泛化能力更强,减少过拟合
  • 增强对特征和特征之间的理解
    特征选择应用阶段
    当数据与处理完成后,我们需要选择有意义的特征输入机器学习的算法和模型进行训练。从两个方面考虑来选择特征:
  • 特征是否发散
  • 特征与目标的相关性
    主要方法
  • Filter过滤法(针对单一特征本身)
  • Wrapper包装法(基于对不同特征之间的集合的搜索)
  • Embedded嵌入法(通过加载到模型自身的一种方法)
Filter过滤法

按照发散性或相关性对各个特征进行评分,设定阈值或选择阈值的个数,选择特征。

  • 移除低方差的特征(Removing features with low variance)
    在这里插入图片描述
    在这里插入图片描述

  • 单变量特征选择(Univariate feature selection)
    单变量特征选择的原理是分别单独的计算每个变量的某个统计指标,根据该指标来判断哪些指标重要,剔除那些不重要的指标。
    分类问题(y离散)
    卡方检验、f_classif、互信息

  • 经典的卡方检验是检验定性自变量对定性因变量的相关性。
    在这里插入图片描述
    回归问题(y连续)
    皮尔森相关系数、f_regression、mutual_info_regression、最大信息系数(MIC)

  • Pearson相关系数
    在这里插入图片描述

  • 互信息
    在这里插入图片描述
    互信息的不足:

  • 不属于度量方式,也没有办法归一化,在不同数据集上的结果无法做比较;

  • 对于连续变量的计算不是很方便,通常变量需要先离散化,而互信息的结果对离散化的方式很敏感。

  • 最大信息系数
    在这里插入图片描述

  • 距离相关系数
    在这里插入图片描述

Wrapper包装法

根据目标函数(通常是预测效果评分),每次迭代选择若干特征或排除若干特征。

  • 递归特征消除(Recursive Feature Elimination)
    递归消除特征法使用一个基模型来进行多轮训练,每轮训练后,移除部分小权值系数的特征,再基于新的特征集进行下一轮训练。
    在这里插入图片描述
Embedded嵌入法

先使用某些机器学习的算法和模型进行训练,得到各个特征的权值系数,根据系数从大到小选择特征。类似于Filter方法,但是是通过训练来确定特征的优劣。

  • 模型特征选择(Feature selection from Model)
    基于模型的内在属性对于特征的选择方式,例如L1、L2正则化项、树模型的剪枝。
    在这里插入图片描述
    在这里插入图片描述
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值