1. k-means的步骤
- 随机设置K个特征空间内的点作为初始的聚类中心
- 对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类中心点作为标记类别
- 接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平均值)
- 如果计算得出的新中心点与原中心点一样,那么结束,否则重新进行第二步过程
2. api
- sklearn.cluster.KMeans(n_clusters=8,init=‘k-means++’)
-
k-means聚类
-
n_clusters:开始的聚类中心数量
-
init:初始化方法,默认为’k-means ++’
-
labels_:默认标记的类型,可以和真实值比较(不是值比较)
-
3. 聚类评估标准
- 轮廓系数
- 计算公式:sci = (bi - ai) / max(bi, ai)
- 注:对于每个点i为已聚类数据中的样本, bi为i到其他族群的所有样本的平均距离, ai为i到本族群所有样本的平均距离, 最终计算出所有的样本点的轮廓系数的平均值
- 轮廓系数的值是介于[-1,1], 越趋近与1代表内聚度和分离度都相对较优
4. 代码实现
from sklearn.decomposition import PCA
import pandas as pd
from sklearn.cluster import KMeans
from matplotlib import pyplot as plt
from sklearn.metrics import silhouette_score
# 读取四张表的数据
prior = pd.read_csv("./data/instacart_data/order_products__prior.csv")
products = pd.read_csv("./data/instacart_data/products.csv")
orders = pd.read_csv("./data/instacart_data/orders.csv")
aisles = pd.read_csv("./data/instacart_data/aisles.csv")
# 合并四张表(用户-物品类别)
_mg = pd.merge(prior, products, on=['product_id', 'product_id'])
_mg = pd.merge(_mg, orders, on=['order_id', 'order_id'])
mt = pd.merge(_mg, aisles, on=['aisle_id', 'aisle_id'])
# 交叉表(特殊的分组工具)
cross = pd.crosstab(mt['user_id'], mt['aisle_id'])
# 主成分分析
pca = PCA(n_components=0.9)
data = pca.fit_transform(cross)
print(data.shape)
km = KMeans(n_clusters=4)
# 缩小数据
x = data[:500]
km.fit(x)
predicted = km.predict(x)
# 显示聚类的结果
plt.figure(figsize=(10,10))
colored = ['orange', 'green', 'blue', 'purple']
color = [colored[i] for i in predicted]
# 随机选取第一个特征和第二十个特征进行绘图
plt.scatter(x[:,1], x[:, 20], color=color)
print("轮廓系数:", silhouette_score(x, predicted))
5. Kmeans总结
- 采用迭代式算法,直观易懂并且非常实用
- 缺点:
- 容易收敛到局部最优解(多次聚类)
- 需要预先设定簇的数量(k-means++解决)