聚类算法api初步使用
1 api介绍
- sklearn.cluster.KMeans(n_clusters=8)
- 参数:
- n_clusters:开始的聚类中心数量
- 整型,缺省值=8,生成的聚类数,即产生的质心(centroids)数。
- n_clusters:开始的聚类中心数量
- 方法:
- estimator.fit(x) 【训练】
- estimator.predict(x) 【预测】
- estimator.fit_predict(x) 【也可以把训练和预测一块来写】
- 计算聚类中心并预测每个样本属于哪个类别,相当于先调用fit(x),然后再调用predict(x)
- 参数:
2 案例
随机创建不同二维数据集作为训练集,并结合k-means算法将其聚类,可以尝试分别聚类不同数量的簇,并观察聚类效果:
聚类参数n_cluster传值不同,得到的聚类结果不同
2.1流程分析
2.2 代码实现
1.创建数据集
from sklearn.datasets._samples_generator import make_blobs
import matplotlib.pyplot as plt
# 创建数据集
# X为样本特征,Y为样本簇类别,共1000个样本,每个样本4个特征,共4个簇
# 簇中心在[-1,-1], [0,0],[1,1], [2,2], 簇方差分别为[0.4, 0.2, 0.2, 0.2]
# make_blobs(n_features=生成数据维度,n_samples=样本数量,centers=[每个类别中心坐标],cluster_std=[每个类别离散程度-方差])
x, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
cluster_std=[0.4, 0.2, 0.2, 0.2], random_state=9)
# 数据集可视化
plt.scatter(x[:, 0], x[:, 1], marker='o', c=y) # c=y会将生成的聚类图像分别为不同的颜色
plt.show()
运行结果:
2.使用k-means进行聚类,并使用CH方法评估
from sklearn.cluster import KMeans
import matplotlib.pyplot as plt
from sklearn.metrics import calinski_harabasz_score
from sklearn.datasets._samples_generator import make_blobs
# 创建数据集
# X为样本特征,Y为样本簇类别,共1000个样本,每个样本4个特征,共4个簇
# 簇中心在[-1,-1], [0,0],[1,1], [2,2], 簇方差分别为[0.4, 0.2, 0.2, 0.2]
# make_blobs(n_features=生成数据维度,n_samples=样本数量,centers=[每个类别中心坐标],cluster_std=[每个类别离散程度-方差])
x, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
cluster_std=[0.4, 0.2, 0.2, 0.2], random_state=9)
# 分别尝试n_cluses=2\3\4,然后查看聚类效果
y_pred = KMeans(n_clusters=2, random_state=9).fit_predict(x)
# 数据集可视化
plt.scatter(x[:, 0], x[:, 1], marker='o', c=y_pred) # c=y会将生成的聚类图像分别为不同的颜色
plt.show()
# 用Calinski-Harabasz Index评估的聚类分数
print(calinski_harabasz_score(x, y_pred))
运行结果:
当n_cluses=3时:
当n_cluses=4时:
当n_cluses=5时: