特征降维
特征降维简介
用于训练的数据集特征对模型的性能有着极其重要的作用。如果训练数据中包含一些不重要的特征,可能导致模型的泛化性能不佳。例如:
1. 某些特征的取值较为接近,其包含的信息较少
2. 我们希望特征独立存在,对预测产生影响,具有相关性的特征可能并不会给模型带来更多的信息,但是并不是说相关性完全无用。
降维*是指在某些限定条件下,降低特征个数, 我们接下来介绍集中特征降维的方法:
低方差过滤法,相关系数法,PCA(主成分分析)降维法。
低方差过滤法
我们知道:
1. 特征方差小:某个特征大多样本的值比较相近
2. 特征方差大:某个特征很多样本的值都有差别
低方差过滤法 指的是删除方差低于某些阈值的一些特征。
在数据集中,删除方差低于 threshold 的特征将被删除,默认值是保留所有非零方差特征,即删除所有样本中具有相同值的特征。
主成分分析(PCA)
PCA 通过对数据维数进行压缩,尽可能降低原数据的维数(复杂度),损失少量信息,在此过程中可能会舍弃原有数据、创造新的变量。
相关系数法
相关系数的计算主要有: 皮尔逊相关系数、斯皮尔曼相关系数。特征之间的相关系数法可以反映变量之间相关关系密切程度。
皮尔逊相关系数的计算公式:
斯皮尔曼相关系数计算公式: