sklearn中KMean()相关参数及可视化
忽然想到学习了这么多的东西,也希望能与其他想学习的人分享分享,就写下了这篇博客了
from sklearn.cluster import KMeans
import numpy as np
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] = ['SimHei']
np.random.seed(123) # numpy中设置随机种子
low_dim_embs = np.random.randint(0, 20, size=300).reshape(150, 2) # 产生300个随机整数,重塑为150个2维数组
kmeans = KMeans(n_clusters=3, random_state=123)
kmeans.fit(low_dim_embs)
plt.figure(figsize=(8, 8))
plt.scatter([i[0] for i in low_dim_embs], [i[1] for i in low_dim_embs], c=kmeans.labels_, marker='x')
plt.axis('off') # 关闭坐标轴
for coordinate in low_dim_embs:
plt.annotate(str(coordinate), xy=coordinate, xytext=(coordinate[0]+0.05, coordinate[1]+0.05)) # 数据标注
plt.show()
代码相关内容里面应该解释的比较清楚了,关于kmeans里面的相关参数如下:
n_clusters : 聚类数目。
init : 可选参数{‘k-means++’, ‘random’, ndarray, callable}, 默认是’k-means++'方法。‘k-means++’ : 为 k-mean 选择初始聚类中心,以智能方式进行聚类以加快收敛速度。 ‘random’: 从初始质心的数据中随机选择 n_clusters
个观测值(行)。如果传递了 ndarray,则它的形状应为 (n_clusters, n_features)并给出初始中心。如果传递了一个可调用对象,它应该接受参数 X、n_clusters 和一个随机状态并返回一个初始化。
n_init : int, default=10改变质心位置的迭代次数。
max_iter : 最大迭代次数,default=300。
tol : float, default=1e-4。关于差异的 Frobenius 范数的相对容差在连续两次迭代的聚类中心声明收敛。
precompute_distances :可选参数 {‘auto’, True, False}, default=‘auto’。预先计算距离,更快但是花费更大的内存开销。
verbose : int, default=0。详细度,好像作用不是很大。
random_state : int, default=None。随机种子。
copy_x : bool, default=True。当预先计算距离时,它在数值上更准确地居中先上数据。 如果 copy_x 为 True(默认),则原始数据为没有修改。 如果为False,则修改原始数据,并放回在函数返回之前,但可能会有微小的数值差异通过减去然后加上数据均值来引入。 请注意,如果原始数据不是 C-contiguous,即使copy_x 是False。 如果原始数据稀疏,但不是CSR格式,即使 copy_x 为 False,也会复制一份。
n_jobs : int, default=None,内存开销。
algorithm : 可选参数{“auto”, “full”, “elkan”}, default=“auto”。要使用的 K 均值算法。 经典的 EM 风格算法是“完整的”。“elkan”变体在定义明确的数据上更有效聚类,通过使用三角不等式。 但是它的内存更大由于分配了额外的形状数组而密集(n_samples,n_clusters)。