【机器学习】算法原理详细推导与实现(六):k-means算法

【机器学习】算法原理详细推导与实现(六):k-means算法

之前几个章节都是介绍有监督学习,这个章节介绍无监督学习,这是一个被称为k-means的聚类算法,也叫做k均值聚类算法

聚类算法

在讲监督学习的时候,通常会画这样一张图:

这时候需要用logistic回归或者SVM将这些数据分成正负两类,这个过程称之为监督学习,是因为对于每一个训练样本都给出了正确的类标签。

在无监督学习中,经常会研究一些不同的问题。假如给定若干个点组成的数据集合:

所有的点都没有像监督学习那样给出类标签和所谓的学习样本,这时候需要依靠算法本身来发现数据中的结构。在上面的这张图中,可以很明显的发现这些数据被分成了两簇,所以一个无监督学习算法将会是聚类算法,算法会将这样的数据聚集成几个不同的类。

聚类算法很多应用场景,举几个最常用的:

  1. 在生物学应用中,经常需要对不同的东西进行聚类,假设有很多基因的数据,你希望对它们进行聚类以便更好的理解不同种类的基因对应的生物功能
  2. 在市场调查中,假设你有一个数据库,里面保存了不同顾客的行为,如果对这些数据进行聚类,可以将市场分为几个不同的部分从而可以对不同的部分指定相应的销售策略
  3. 在图片的应用中,可以将一幅照片分成若干个一致的像素子集,去尝试理解照片的内容
  4. 等等…

聚类的基本思想是:给定一组数据集合,聚集成若干个属性一致的类。

k-means聚类

这个算法被称之为k-means聚类算法,用于寻找数据集合中的类,算法的输入是一个无标记的数据集合 x ( 1 ) , x ( 2 ) , . . . , x ( m ) {x^{(1)},x^{(2)},...,x^{(m)}} x(1),x(2),...,x(m),因为这是无监督学习算法,所以在集合中只能看到 x x x,没有类标记 y y yk-means聚类算法是将样本聚类成 k k k个簇(cluster),具体算法步骤如下:

step 1 随机选取k个聚类质心点(cluster centroids),那么就等于存在了 k k k个簇 c ( k ) c^{(k)} c(k)

μ 1 , μ 2 , . . . , μ k ∈ R n \mu_1,\mu_2,...,\mu_k \in R^n μ1,μ2,...,μkRn

step 2 对于每一个 x ( i ) x^{(i)} x(i),需要计算与每个质心 μ j \mu_j μj的距离, x ( i ) x^{(i)} x(i)则属于与他距离最近质心 μ j \mu_j μj的簇 c ( j ) c^{(j)} c(j)

c ( j ) : = a r g m i n j ∣ ∣ x ( i ) − μ j ∣ ∣ 2 , j ∈ 1 , 2 , . . . , k c^{(j)}:=argmin_j||x^{(i)}-\mu_j||^2,j \in 1,2,...,k c(j):=argminjx(i)μj2,j1,2,...,k

step 3 对于每一个类 c ( j ) c^{(j)} c(j),重新计算该簇质心的值:

μ j : = ∑ i = 1 m l { c ( i ) = j } x ( i ) ∑ i = 1 m l { c ( i ) = j } \mu_j:=\frac{\sum^m_{i=1}l\{c^{(i)}=j\}x^{(i)}}{\sum^m_{i=1}l\{c^{(i)}=j\}} μj:=i=1ml{c(i)=j}i=1ml{c(i)=j}x(i)

之后需要重复step 2step 3直到算法收敛,下面图中对上述步骤进行解释,存在数据点如下所示:

假设我们取 k = 2 k=2 k=2,那么会在数据集合中随机选取两个点作为质心,即下图中红色的点 μ 1 \mu_1 μ1和蓝色的点 μ 2 \mu_2 μ2

分别计算每一个 x ( i ) x^{(i)} x(i)和质心 μ 1 \mu_1 μ1 μ 2 \mu_2 μ2的距离, x ( i ) x^{(i)} x(i)离哪个 μ j \mu_j μj更近,那么 x ( i ) x^{(i)} x(i)就属于哪个 c ( j ) c^{(j)} c(j),即哪些点离红色 μ 1 \mu_1 μ1近则属于 c ( 1 ) c^{(1)} c(1),离蓝色近则属于 c ( 2 ) c^{(2)} c(2)。第一次将 x ( i ) x^{(i)} x(i)分类后效果如下:

下一步是更新簇 c ( j ) c^{(j)} c(j)的质心,计算所有红色点的平均值,得到新的质心 μ 1 _ n e w \mu_{1\_new} μ1_new;计算所有蓝色点的平均值,得到新的质心 μ 2 _ n e w \mu_{2\_new} μ2_new,如下图所示:

再次重复计算每一个 x ( i ) x^{(i)} x(i)和质心的距离,更新质心的值。多次迭代收敛后,即使进行更多次的迭代, x ( i ) x^{(i)} x(i)的类别和质心的值都不会再改变了:

这里涉及到一个问题,如何保证k-means是收敛的?前面算法强调的是结束条件是收敛,为了保证算法完全收敛,这里引入畸变函数(distortion function):

J ( c , μ ) = ∑ i = 1 m ∣ ∣ x ( i ) − μ c ( i ) ∣ ∣ 2 J(c,\mu)=\sum^m_{i=1}||x^{(i)}-\mu_{c^{(i)}}||^2 J(c,μ)=i=1mx(i)μc(i)2

J ( c , μ ) J(c,\mu) J(c,μ)表示每个样本点 x ( i ) x^{(i)} x(i)到其质心距离的平方和,当 J ( c , μ ) J(c,\mu) J(c,μ)没有达到最小值,可以固定 c ( j ) c^{(j)} c(j)更新每个簇的质心 μ j \mu_j μj,质心变化后固定质心的值 μ j \mu_j μj重新划分簇 c ( j ) c^{(j)} c(j)也变化,不断迭代。当 J ( c , μ ) J(c,\mu) J(c,μ)达到最小值时, μ j \mu_j μj c ( j ) c^{(j)} c(j)也同时收敛。(这个过程和前面【机器学习】算法原理详细推导与实现(五):支持向量机(下)中的SMO优化算法算法的过程很相似,都是固定一组值或者一个值,更新另外一组或者一个值,使其函数优化到极值,这个过程叫做坐标上升,这里不作推导)。实际上可能会有多组 μ \mu μ c c c能够使得 J ( c , μ ) J(c,\mu) J(c,μ)取得最小值,但是这种情况并不多见。

由于畸变函数 J ( c , μ ) J(c,\mu) J(c,μ)是非凸函数,所以意味着不能保证取的最小值是全局最小值,也就是说k-means对随机取的质心的初始位置比较敏感。一般达到局部最优已经满足分类的需求了,如果比较介意的话,可以多跑几次k-means算法,然后取 J ( c , μ ) J(c,\mu) J(c,μ)最小值的 μ \mu μ c c c

k值确定

很多人不知道怎么确定数据集需要分多少个类(簇),因为数据是无监督学习算法,k值需要认为的去设定。所以这里会提供两种方法去确定k值。

第一种方法

观察法,本文的例子可以看出,把数据集画在图中显示,就能很明显的看到应该划分2个类(簇):

并非所有的数据都像上面的数据一样,一眼可以看出来分2个类(簇),所以介绍一般比较常用的第二种方法。

第二种方法

轮廓系数(Silhouette Coefficient),是聚类效果好坏的一种评价方式。最早由 Peter J. Rousseeuw 在 1986 提出。它结合内聚度和分离度两种因素。可以用来在相同原始数据的基础上用来评价不同算法、或者算法不同运行方式对聚类结果所产生的影响。

按照上面计算k-means算法的步骤计算完后,假设 x ( i ) x^{(i)} x(i)属于簇 c ( i ) c^{(i)} c(i),那么需要计算如下两个值:

  1. a ( i ) a(i) a(i),计算 x ( i ) x^{(i)} x(i)与同一簇中其他点的平均距离,代表 x ( i ) x^{(i)} x(i)与同一簇中其他点不相似的程度
  2. b ( i ) b(i) b(i),计算 x ( i ) x^{(i)} x(i)与另一个与 x ( i ) x^{(i)} x(i)最近的簇 c c c,与簇 c c c内所有点平均距离,代表 x ( i ) x^{(i)} x(i)与最相邻簇 c c c的不相似程度

最终轮廓系数的计算公式为:

S ( i ) = b ( i ) − a ( i ) m a x ( a ( i ) , b ( i ) ) S(i)=\frac{b(i)-a(i)}{max(a(i),b(i))} S(i)=max(a(i),b(i))b(i)a(i)

轮廓系数的范围为 [ − 1 , 1 ] [-1, 1] [1,1],越趋近于1代表内聚度和分离度都相对较优。

所以可以在k-means算法开始的时候,先设置k值的范围 k ∈ [ 2 , n ] k \in [2, n] k[2,n],从而计算k取每一个值的轮廓系数,轮廓系数最小的那个k值就是最优的分类总数。

实例

假设存在数据集为如下样式:

import matplotlib.pyplot as plt
import numpy as np
from sklearn.cluster import KMeans
from sklearn import metrics

# figsize绘图的宽度和高度,也就是像素
plt.figure(figsize=(8, 10))
x1 = np.array([1, 2, 3, 1, 5, 6, 5, 5, 6, 7, 8, 9, 7, 9])
x2 = np.array([1, 3, 2, 2, 8, 6, 7, 6, 7, 1, 2, 1, 1, 3])
X = np.array(list(zip(x1, x2))).reshape(len(x1), 2)
# print(X)

# x,y轴的绘图范围
plt.xlim([0, 10])
plt.ylim([0, 10])
plt.title('sample')
plt.scatter(x1, x2)
# 点的颜色
colors = ['b', 'g', 'r', 'c', 'm', 'y', 'k', 'b']
# 点的形状
markers = ['o', 's', 'D', 'v', '^', 'p', '*', '+']
plt.show()

虽然观察法可以知道这个数据集合只要设置 k = 3 k=3 k=3就好了,但是这里还是想用轮廓系数来搜索最佳的k值。假设不知道的情况下,这里取 k ∈ [ 2 , 3 , 4 , 5 , 8 ] k \in [2, 3, 4, 5, 8] k[2,3,4,5,8]

# 测试的k值
tests = [2, 3, 4, 5, 8]
subplot_counter = 1
for t in tests:
    subplot_counter += 1
    plt.subplot(3, 2, subplot_counter)
    kmeans_model = KMeans(n_clusters=t).fit(X)
    for i, l in enumerate(kmeans_model.labels_):
        plt.plot(x1[i], x2[i], color=colors[l], marker=markers[l], ls='None')
        # 每个点对应的标签值
        # print(kmeans_model.labels_)
        plt.xlim([0, 10])
        plt.ylim([0, 10])
        plt.title('K = %s, Silhouette Coefficient = %.03f' % (t, metrics.silhouette_score(X, kmeans_model.labels_, metric='euclidean')))

得到的结果为:

可以看到当 k = 3 k=3 k=3时轮廓系数最大为0.722

数据和代码下载请关注公众号【 机器学习和大数据挖掘 】,后台回复【 机器学习 】即可获取

  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值