注意:这里的降维是将特征的数量减少
一、数据降维的分类
(一)特征选择
1、特征选择的定义
特征选择就是单纯地从提取到的所有特征中选择部分特征作为训练集特征,特征在选择前和选择后可以改变值、也可以不改变值,但是选择后的特征维数肯定比选择前小,毕竟我们只选择了其中的一部分特征。
2、特征选择原因
(1)冗余:部分特征的相关度高,容易消耗计算性能
(2)噪声:部分特征对预测结果有负影响
3、sklearn特征选择API
sklearn.feature_selection.VarianceThreshold
4、VarianceThreshold语法
VarianceThreshold(threshold=0.0)删除所有低方差特征
Variance.fit_transform(x)
X:numpy array格式的数据[n_samples,n_features]
返回值:训练集差异低于threshold的特征将被删除。
默认值是保留所有非零方差特征,即删除所有样本
中具有相同值的特征。
5、流程
(1)初始化VarianThreshold,指定阈值方差
(2)调用fit_transform
例如:
from sklearn.feature_selection import VarianceThreshold
def var():
“”"
特征选择-删除低方差的特征
:return:None
“”"
var = VarianceThreshold(threshold=0.0)
data=var.fit
机器学习——降维
最新推荐文章于 2024-06-18 21:14:17 发布
本文介绍了机器学习中的数据降维技术,包括特征选择和主成分分析(PCA)。特征选择通过VarianceThreshold去除低方差特征,PCA则用于降低数据的维数,保留大部分信息。文中给出了相关API的使用示例。
摘要由CSDN通过智能技术生成