特征选择之python实战(一)

本文介绍了特征选择的重要性和常用方法,包括去掉取值变化小的特征、单变量特征选择,如Pearson相关系数、距离相关系数和基于学习模型的特征排序。详细探讨了各种方法的优缺点,如Pearson相关系数对线性关系敏感,距离相关系数能检测非线性关系,而基于学习模型的特征排序则能适应不同类型的特征关系。文中以波士顿房价数据集为例展示了随机森林回归在特征选择中的应用。
摘要由CSDN通过智能技术生成
前言:实际应用中特征作用远大于模型。
声明:本文为读书笔记,原文地址:http://www.tuicool.com/articles/ieUvaq

特征选择主要有两个功能:

1.减少特征数量、降维,使模型泛化能力更强,减少过拟合

2.增强对特征和特征值之间的理解


特征选择方法总览


1 去掉取值变化小的特征 Removing features with low variance

在所有输入样本中,绝大部分的实例的该特征取值都是相同,那就可以认为这个特征作用不大。当特征值都是离散型变量的时候这种方法才能用,如果是连续型变

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值