python数据分析与运营化实战
例3.3.4 Python数据降维
本例使用sklearn的DecisionTreeClassifier来判断变量重要性并选择变量,并通过PCA进行维度转换。
import numpy as np
from sklearn.tree import DecisionTreeClassifier
from sklearn.decomposition import PCA
#读取数据文件
data = np.loadtxt('data1.txt') #读取文本数据文件
x = data[:,:-1] #获得输入x
y = data[:,-1]
print(x[0]) #打印输出x和y的第一条记录
print(y[0])
[ 1.88622997 1.31785876 -0.16480621 0.56536882 -1.11934542 -0.53218995
-0.6843102 1.24149827 1.00579225 0.45485041]
0.0
#使用sklearn的DecisionTreeClassifier判断变量的重要性
model_tree = DecisionTreeClassifier(random_state=0) #建立分类决策树模型对象
model_tree.fit(x, y)#将数据集的维度和目标变量输入模型
feature_importance = model_tree.feature_importances_ #获得所有变量的重要性得分
print(feature_importance)
import heapq
import bottleneck
max_3=heapq.nlargest(3,feature_importance)#找出前3位的最大值
type(heapq.nlargest(3,feature_importance))
for num in max_3:
print(feature_importance == num)
# bottleneck.argpartsort(feature_importance, 3)[:3]
# print(np.argmax())
[ 0.03331054 0.01513967 0.02199713 0.119727 0.47930312 0.04776297
0.17111746 0.02585441 0.02012725 0.06566044]
[False False False False True False False False False False]
[False False False False False False True False False False]
[False False False True False False False False False False]
#使用sklearn的PCA进行维度转换
model_pca = PCA() #建立PCA模型对象
model_pca.fit(x) #将数据集输入模型
model_pca.transform(x) #对数据集进行转换映射
components = model_pca.components_ #获得转换后的所有主成分
components_var = model_pca.explained_variance_ #获得各主成分的方差
components_var_ratio = model_pca.explained_variance_ratio_ #获得各主成分的方差占比
print(components[:2]) #打印输出前2个主成分
print(components_var[:2]) #打印输出前2个主成分的方差
print(components_var_ratio) #打印输出所有主成分的方差占比
[[ 7.18818316e-03 1.41619205e-02 1.00543847e-02 3.65097575e-01
6.38944537e-01 -1.95750380e-02 -1.73413378e-01 -3.80829974e-02
-2.87413113e-03 -6.52829504e-01]
[ 1.01307710e-02 -1.95270201e-04 -2.33689543e-02 -6.12915216e-01
5.08983971e-01 -2.23429533e-02 6.02958940e-01 -1.49061329e-02
-1.81362216e-02 -3.41623971e-03]]
[ 4.22602937 2.21149972]
[ 3.38339364e-01 1.77054475e-01 8.92753857e-02 8.73655166e-02
8.23542686e-02 8.03329836e-02 7.38094896e-02 7.14685179e-02
3.80545111e-33 1.88702079e-33]