K-means(K均值原型聚类)

K-means原理:
所谓物以类聚,人以群分。相似的人们总是相互吸引在一起。

这里写图片描述

数据也是一样。在kNN中,某个数据以与其他数据间的相似度来预测其标签,而K-means是一群无标记数据间的因为自我相似的聚拢。显而易见,K-means的目标为簇内密集而簇间稀疏。

这里写图片描述

简单来说就是首先先确定k个初始点作为质心,然后将数据集中的每一个点分配到一个距其最近的簇中,这一步完成后将每个簇的质心更新为该簇所有点的平均值,直至中心不再变化。

算法实现:(Python)

def distEclud(vecA, vecB):#计算两个向量的欧式距离
    return sqrt(sum(power(vecA - vecB, 2)))

def randCent(dataSet, k):#随机质心
    n = shape(dataSet)[1]
    centroids = mat(zeros((k,n)))
    for j in range(n):
        minJ = min(dataSet[:,j]) 
        rangeJ = float(max(dataSet[:,j]) - minJ)
        centroids[:,j] = mat(minJ + rangeJ * random.rand(k,1))
    return centroids
    
def kMeans(dataSet, k, distMeas=distEclud, createCent=randCent):
    m = shape(dataSet)[0]
    clusterAssment = mat(zeros((m,2)))#存储每个点的分配,即簇索引值和误差
    centroids = createCent(dataSet, k)
    clusterChanged = True
    while clusterChanged:
        clusterChanged = False
        for i in range(m):
            minDist = inf; minIndex = -1
            for j in range(k):#寻找最近质心
                distJI = distMeas(centroids[j,:],dataSet[i,:])
                if distJI < minDist:
                    minDist = distJI; minIndex = j
            if clusterAssment[i,0] != minIndex: clusterChanged = True
            clusterAssment[i,:] = minIndex,minDist**2
        print (centroids)
        for cent in range(k):#更新质心的位置
            ptsInClust = dataSet[nonzero(clusterAssment[:,0].A==cent)[0]]
            centroids[cent,:] = mean(ptsInClust, axis=0)
    return centroids, clusterAssment

或者也有博主自己写的一个简易版的python代码:

#k-means
import numpy as np
import random

x=[[1,2],[3,6],[5,2],[1,1]]
k=3
epoch=10

def distance(A,B):
        return np.linalg.norm(A-B,axis=1)

center_x=np.random.randint(0,5,size=k)
center_y=np.random.randint(0,5,size=k)
center=np.array(list(zip(center_x,center_y)))
center_old=np.zeros(center.shape)

cluster=np.zeros(len(x))
epoch_i=0

while epoch_i<epoch:
        for i in range(len(x)):
                dis=distance(i,center)
                print(dis)
                clu=np.argmin(dis)
                print(clu)
                cluster[i]=clu
        center_old=center
        for i in range(k):
                p=[x[j] for j in range(len(x)) if cluster[j]==i]
                center[i]=np.mean(p,axis=0)
        epoch_i+=1
print(cluster)
                

k-means算法简单、快速,效率高,当数据集是密集的、球状或团状的簇群,且簇与簇之间区别明显时,聚类效果很好。但是它也有不少的问题

使用范围的约束
k-means,k-means,这个平均值(means)被定义的情况下才能使用。而且对有些分类属性的数据不适用。而且对非凸面形状的簇,或者大小差别很大的簇简直无解。

k是用户指派的?k的选择问题
由于k是用户预先定义的参数,那么如何选择k才是最佳的呢?一种度量聚类效果的指标是误差平方和(Sum of Squared Error,SSE),SSE越小表示数据点越接近它们的质心,聚类的效果相对来说也就最好。所以利用SEE的改进方法就是对生成的簇进行后处理,一是将最大的SSE值的簇分成两个(将这个簇的点过滤出后再进行k为2的k-means),而是合并最小的SSE簇。
或者是人工考虑“肘部法则”来选择,即画出不同k值下的代价函数图,这很像一个人的肘部,观察图形可知,当达到一个点时J下降的非常快,之后会很慢,由此来选择k。

这里写图片描述

但是当遇到高维度、海量的数据集时,人们往往很难准确地估计出K的大小,所以最好使用迭代自组织数据分析法(Iterative Self-Organizing Data Analysis Technique ,ISODATA)来判断。即当属于某个类别的样本数过少时把这个类别去除,当属于某个类别的样本数过多、分散程度较大时把这个类别分为两个子类别。

只能用欧式距离?度量方式的选择
除了根据实际情况进行选择外,还可以参照支持向量机中核函数的思想,将所有样本映射到另外一个特征空间中再进行聚类。

闵可夫斯基距离
欧几里得距离
曼哈顿距离
切比雪夫距离
马氏距离
余弦相似度
皮尔逊相关系数
汉明距离
杰卡德相似系数
编辑距离
DTW 距离
KL 散度

计算距离时间太多?距离度量的优化
elkan K-Means算法利用了两边之和大于等于第三边,以及两边之差小于第三边的三角形性质,来减少计算量,提高时间。

不抗干扰,被噪声扰动影响太大

初质心不同,结果不同?K-means对初值的敏感
K-means非常容易受初识质心的影响,质心的不同,聚类结果可能千差万别。所以为了更好的效果,可以采用二分k均值聚类,即每次都选择有最大误差的簇进行二分,直至k个簇全部创建成功。

算法实现:(Python)

def biKmeans(dataSet, k, distMeas=distEclud):#二分k均值聚类
    m = shape(dataSet)[0]
    clusterAssment = mat(zeros((m,2)))
    centroid0 = mean(dataSet, axis=0).tolist()[0]
    centList =[centroid0]
    for j in range(m):
        clusterAssment[j,1] = distMeas(mat(centroid0), dataSet[j,:])**2
    while (len(centList) < k):
        lowestSSE = inf
        for i in range(len(centList)):#遍历每一个簇
            ptsInCurrCluster = dataSet[nonzero(clusterAssment[:,0].A==i)[0],:]
            centroidMat, splitClustAss = kMeans(ptsInCurrCluster, 2, distMeas)
            sseSplit = sum(splitClustAss[:,1])#计算划分后的两个簇的误差
            sseNotSplit = sum(clusterAssment[nonzero(clusterAssment[:,0].A!=i)[0],1])
            print ("sseSplit, and notSplit: ",sseSplit,sseNotSplit)
            if (sseSplit + sseNotSplit) < lowestSSE:#误差之和作为本次划分的误差
                bestCentToSplit = i
                bestNewCents = centroidMat
                bestClustAss = splitClustAss.copy()
                lowestSSE = sseSplit + sseNotSplit
        bestClustAss[nonzero(bestClustAss[:,0].A == 1)[0],0] = len(centList) #更新簇的分配结果。将刚刚划分完的0,1编号的结果簇修改编号,由两个数组过滤器来完成
        bestClustAss[nonzero(bestClustAss[:,0].A == 0)[0],0] = bestCentToSplit
        print ('the bestCentToSplit is: ',bestCentToSplit)
        print ('the len of bestClustAss is: ', len(bestClustAss))
        centList[bestCentToSplit] = bestNewCents[0,:].tolist()[0]#新的质心增加到centroids中
        centList.append(bestNewCents[1,:].tolist()[0])
        clusterAssment[nonzero(clusterAssment[:,0].A == bestCentToSplit)[0],:]= bestClustAss
    return mat(centList), clusterAssment

原型聚类
K-means之所以为原型聚类就在于它是通过先对原型进行初始化,然后对原型进行不断的迭代求解。当然了,不同的原型刻画方法,求解方式,将产生不同的算法。对K-means来说,初始的k个样本便是它的原型向量。与K-means一样,学习向量量化(Learning Vector Quantization,LVQ)也是尝试找到一组原型向量来刻画该原型,但LVQ的样本是带有标记的,即通过监督信息来辅助聚类。如果你了解一些神经网络,那么LVQ对于你应该很熟悉,它的核心其实就是“适者生存”的竞争策略,只对竞争获胜的神经元进行参数调整,是自组织映射(Self-organizing Maps,SOM)基于监督信息的一种变体。

这里写图片描述

而它用于聚类也是如此。大致算法思想是从样本集中随机选取一个有标记的样本(x,y),找到最小的那个原型向量p,判断样本的标记y与原型向量的标记是否一致。若一致则更新为p’ = p + a*(x-p),否则更新为p’ = p - a*(x - p)。 直观上看标记相同则靠拢,不同则远离。

K-means应用:
KMeans参数说明:
KMeans(algorithm=‘auto’, copy_x=True, init=‘k-means++’, max_iter=300,n_clusters=3, n_init=10, n_jobs=1, precompute_distances=‘auto’,random_state=None, tol=0.0001, verbose=0)

algorithm:"full"就是传统的K-Means算法, “elkan”是采用elkan K-Means算法。
copy_x=True:对是否修改数据的一个标记,如果True,即复制了就不会修改数据。
init='k-means++':初始值选择方式
max_iter=300:最大迭代
n_clusters=3:k的值
n_init=10:初始化质心运行次数
n_jobs=1:并行工作数
precompute_distances='auto':是否预计算距离
random_state=None:随机状态条件
tol=0.0001: 容忍度,即kmeans运行准则收敛的条件
verbose=0:冗长模式

MiniBatchKMeans(batch_size=45, compute_labels=True, init=‘k-means++’, init_size=None, max_iter=100, max_no_improvement=10, n_clusters=3,n_init=10, random_state=None, reassignment_ratio=0.01, tol=0.0,verbose=0)

batch_size=45:采样集大小
compute_labels=True:计算标签
init='k-means++':初始值选择方式
init_size=None:质心选择的样本数
max_iter=100:最大迭代
max_no_improvement=10:连续性的无改善聚类效果的最大阈值
n_clusters=3:k的值
n_init=10:初始化质心运行次数
random_state=None:随机状态条件
reassignment_ratio=0.01:某个类别质心被重新赋值的最大次数比例
tol=0.0:容忍度,即kmeans运行准则收敛的条件
verbose=0:冗长模式

比较这两种模式的聚类表现:

import time

import numpy as np
import matplotlib.pyplot as plt

from sklearn.cluster import MiniBatchKMeans, KMeans
from sklearn.metrics.pairwise import pairwise_distances_argmin
from sklearn.datasets.samples_generator import make_blobs

#s生成数据
np.random.seed(0)

batch_size = 45
centers = [[1, 1], [-1, -1], [1, -1]]
n_clusters = len(centers)
X, labels_true = make_blobs(n_samples=3000, centers=centers, cluster_std=0.7)

#Means
k_means = KMeans(init='k-means++', n_clusters=3, n_init=10)
t0 = time.time()
k_means.fit(X)
t_batch = time.time() - t0

#MiniBatchKMeans
mbk = MiniBatchKMeans(init='k-means++', n_clusters=3, batch_size=batch_size,
                      n_init=10, max_no_improvement=10, verbose=0)
t0 = time.time()
mbk.fit(X)
t_mini_batch = time.time() - t0

fig=plt.figure(figsize=(8, 3))
fig.subplots_adjust(left=0.02, right=0.98, bottom=0.05, top=0.9)
colors = ['#4EACC5', '#FF9C34', '#4E9A06']

k_means_cluster_centers = np.sort(k_means.cluster_centers_, axis=0)
mbk_means_cluster_centers = np.sort(mbk.cluster_centers_, axis=0)
k_means_labels = pairwise_distances_argmin(X, k_means_cluster_centers)
mbk_means_labels = pairwise_distances_argmin(X, mbk_means_cluster_centers)
order = pairwise_distances_argmin(k_means_cluster_centers,
                                  mbk_means_cluster_centers)

# KMeans
ax = fig.add_subplot(1, 3, 1)
for k, col in zip(range(n_clusters), colors):
    my_members = k_means_labels == k
    cluster_center = k_means_cluster_centers[k]
    ax.plot(X[my_members, 0], X[my_members, 1], 'w',
            markerfacecolor=col, marker='.')
    ax.plot(cluster_center[0], cluster_center[1], 'o', markerfacecolor=col,
            markeredgecolor='k', markersize=6)
ax.set_title('KMeans')
ax.set_xticks(())
ax.set_yticks(())
plt.text(-3.5, 1.8,  'train time: %.2fs\ninertia: %f' % (
    t_batch, k_means.inertia_))

# MiniBatchKMeans
ax = fig.add_subplot(1, 3, 2)
for k, col in zip(range(n_clusters), colors):
    my_members = mbk_means_labels == order[k]
    cluster_center = mbk_means_cluster_centers[order[k]]
    ax.plot(X[my_members, 0], X[my_members, 1], 'w',
            markerfacecolor=col, marker='.')
    ax.plot(cluster_center[0], cluster_center[1], 'o', markerfacecolor=col,
            markeredgecolor='k', markersize=6)
ax.set_title('MiniBatchKMeans')
ax.set_xticks(())
ax.set_yticks(())
plt.text(-3.5, 1.8, 'train time: %.2fs\ninertia: %f' %
         (t_mini_batch, mbk.inertia_))

#两者的不同聚类点
different = (mbk_means_labels == 4)
ax = fig.add_subplot(1, 3, 3)

for k in range(n_clusters):
    different += ((k_means_labels == k) != (mbk_means_labels == order[k]))

identic = np.logical_not(different)
ax.plot(X[identic, 0], X[identic, 1], 'w',
        markerfacecolor='#bbbbbb', marker='.')
ax.plot(X[different, 0], X[different, 1], 'w',
        markerfacecolor='m', marker='.')
ax.set_title('Difference')
ax.set_xticks(())
ax.set_yticks(())

plt.show()

这里写图片描述

可以发现两者聚类结果只有少量的不同。

SPSS应用
这里写图片描述
详细介绍就不多说了,运行后打开节点可以看到很多的细节。

这里写图片描述这里写图片描述这里写图片描述这里写图片描述

Weka一样,画好图后应用就可以得到结果:

这里写图片描述

  • 10
    点赞
  • 46
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值