数据降维、特征提取和特征选择的联系和区别

结论:特征提取(feature extraction)和特征选择(feature selection)两者的目标都是使得特征维度减少,但是方法不一样。两者统称为数据降维(Dimension reduction)

  • 特征提取(feature extraction)
    是将原始高维特征空间里的点向低维空间映射,新的空间维度低于原始空间,所以维度减少。在这个过程中,特征发生了根本性改变,原来的特征消失了。
    常用方法:递归消除法、信息熵增益法、主成分分析法(PCA)和皮尔逊相关系数法等。

  • 特征选择(feature selection)
    特征选择是指从n个特征中选择d(d<n)个出来,而其他的n-d个舍弃。新特征只是原特征的一个子集。没有被舍弃的特征没有发生任何变化。特性选择有很多种方法,但是大多可以分为三类:①过滤:列入一些筛选特征的标准,如相关性/卡方分布。② 包装:包装法将特征选择看作是搜索问题。如回归特征消除。 ③嵌入:嵌入法使用内置了特征选择方法的算法。比如,Lasso和RF都有各自的特征选择方法。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值