聚类分析数学建模

聚类分析基础入门与实践

概述

什么是聚类分析

  1. 聚类是一个将数据集分为若干组(class)或类(cluster)的过程,并使得同一个组内的数据对象具有较高的相似度;而不同组中的数据对象是不相似的。
  2. 相似或不相似是基于数据描述属性的取值来确定的,通常利用各数据对象间的距离来进行表示。
  3. 聚类分析尤其适合用来讨论样本间的相互关联关系从而对一个样本结构做一个初步的评价。

例1

​ 表中给出9个顾客的购买信息,包括购买的商品的数量及价格,根据此两个特征量,将顾客聚类成3类(购买大量的高价产品;购买少量的高价产品;购买少量的低价产品)。

商品的数量价格
21700
类132000
42300
101800
类2122100
112500
2100
类33200
3350

​ 聚类是一个非常困难的事情,因为在一个n维样本空间中,数据可以以不同的形状和大小揭示类。

​ 如在二维欧几里得空间中,上面的数据可以分为三个类,也可以分为4个类,类的数量的任意性是聚类过程中的主要问题。

聚类与分类的区别

  • 聚类:没有具体的标准,没有参考数据。
  • 分类:有具体的分类标准。

聚类分析的应用

  • 市场分析:帮助市场分析人员从客户基本库中发现不同的客户群,并用购买模式刻画不同的客户群的特征
  • 万维网:为WEB日志的数据进行聚类,以发现相同的用户访问模式
  • 图像处理、模式识别、孤立点检测

什么是好的聚类

  • 一个好的聚类方法将产生以下的高聚类
    • 最大化类内的相似性
    • 最小化类间的相似性
  • 聚类结果的质量依靠所使用度量的相似性和它的执行
  • 聚类方法的质量也可以用它发现一些或所有隐含模式的能力来度量

聚类的分类

​ 聚类分析有两种:一种是对样品的分类,称为Q型,另一种是对变量(指标)的分类,称为R型。

  • R型聚类分析的主要作用:
    • 不但可以了解个别变量之间的亲疏程度,而且可以了解各个变量组合之间的亲疏程度。
    • 根据变量的分类结果以及他们之间的关系,可以选择主要变量进行Q型聚类分析或回归分析
  • Q型聚类分析的主要作用:
    • 可以综合利用多个变量的信息对样本进行分析
    • 分类结果直观,聚类谱系图清楚地表现数值分类结果
    • 聚类分析所得到的结果比传统分类方法更细致、全面、合理

样品之间的相似度量——距离

常用的距离定义

​ 设有n个样品的p元观测数据:
x i = ( x i1 , x i2 , ⋯   , x ip ) T , i = 1 , 2 , ⋯   , n x_\text i=(x_\text {i1},x_\text {i2},\cdots,x_\text {ip})^\text T,\text i=1,2,\cdots,\text n xi=(xi1,xi2,,xip)T,i=1,2,,n
​ 这时,每个样品可看成p元空间的一个点,每两个点之间的距离记为 d ( x i , x j ) d(x_\text i,x_\text j) d(xi,xj)满足条件:
d ( x i , x j ) ≥ 0 , 且   d ( x i , x j ) = 0   当 且 仅 当   x i = x j d ( x i , x j ) = d ( x j , x i ) d ( x i , x j ) ≤ d ( x i , x k ) + d ( x k , x j ) \begin{aligned} &d(x_\text i,x_\text j)\ge0,且\,d(x_\text i,x_\text j)=0\,当且仅当\,x_\text i=x_\text j\\ &d(x_\text i,x_\text j)=d(x_\text j,x_\text i)\\ &d(x_\text i,x_\text j)\le d(x_\text i,x_\text k)+d(x_\text k,x_\text j) \end{aligned} d(xi,xj)0,d(xi,xj)=0xi=xjd(xi,xj)=d(xj,xi)d(xi,xj)d(xi,xk)+d(xk,xj)

欧式距离
d ( x i , x j ) = [ ∑ k = 1 p ( x ik − x jk ) 2 ] 1 2 d(x_\text i,x_\text j)=\left[\sum_{\text k=1}^\text p(x_\text{ik}-x_\text{jk})^2\right]^{\dfrac12} d(xi,xj)=[k=1p(xikxjk)2]21
绝对距离
d ( x i , x j ) = ∑ k = 1 p ∣ x ik − x jk ∣ d(x_\text i,x_\text j)=\sum_{\text k=1}^\text p|x_\text{ik}-x_\text{jk}| d(xi,xj)=k=1pxikxjk

明氏距离
d ( x i , x j ) = [ ∑ k = 1 p ∣ x i k − x j k ∣ m ] 1 m d(x_\text i,x_\text j)=\left[\sum_{\rm k=1}^\text p|x_{\rm ik}-x_{\rm jk}|^\text m\right]^\dfrac1{\text m} d(xi,xj)=[k=1pxikxjkm]m1
切氏距离
d ( x i , x j ) = max ⁡ 1 ≤ k ≤ p ∣ x i k − x j k ∣ d(x_\text i,x_\text j)=\max_{\rm 1\le k\le p}|x_{\rm ik}-x_{\rm jk}| d(xi,xj)=1kpmaxxikxjk
方差加权距离
d ( x i , x j ) = [ ∑ k = 1 p ( x ik − x jk ) 2 / s k 2 ] 1 2 d(x_\text i,x_\text j)=\left[\sum_{\text k=1}^\text p(x_\text{ik}-x_\text{jk})^2/\text s_\text k^2\right]^{\dfrac12} d(xi,xj)=[k=1p(xikxjk)2/sk2]21
马氏距离
d ( x i , x j ) = ( x i − x j ) T ∑   − 1 ( x i − x j ) d(x_\text i,x_\text j)=\sqrt{(x_\text i-x_\text j)^\text T\sum\,^{-1}(x_\text i-x_\text j)} d(xi,xj)=(xixj)T1(xixj)
​ 式中 ∑   − 1 \sum\,^{-1} 1为向量 x x x和向量 y y y的协方差矩阵的逆矩阵。

兰氏距离
d ( x i , x j ) = 1 p ∑ k = 1 p ∣ x ik − x jk ∣ x ik + x jk d(x_\text i,x_\text j)=\frac1{\text p}\sum_{\rm k=1}^\text p\frac{|x_\text{ik}-x_\text{jk}|}{x_\text{ik}+x_\text{jk}} d(xi,xj)=p1k=1pxik+xjkxikxjk
杰式距离
d ( x i , x j ) = [ ∑ k = 1 p ( x ik − x jk ) 2 ] 1 2 d(x_\text i,x_\text j)=\left[\sum_{\text k=1}^\text p(\sqrt{x_\text{ik}}-\sqrt{x_\text{jk}})^2\right]^{\dfrac12} d(xi,xj)=[k=1p(xik xjk )2]21
例2

​ 13个国家1990,1995,2000可持续发展能力如下:分成4类

序号国家199019952000
1澳大利亚1249.391273.611282.68
2巴西821.6859.85919.73
3加拿大1641.011591.541608.32
4中国1330.451382.68146.08
5法国1546.551501.771525.95
6德国1656.521630.521570.69
7印度861.30862.51945.11
8意大利1321.771232.31243.51
9日本1873.681949.891851.20
10俄罗斯1475.161315.871297
11南非794.25787.48782.38
12英国1486.751441.711465.12
13美国2824.292659.642740.12

采用不同的距离,得到的结果如下

类别欧式距离(最短距离)
1日本
2澳大利亚、加拿大、英、德、意、中、俄、法
3巴西、印度、南非
4美国
类别欧式距离(ward距离)
1澳大利亚、中、意、俄
2加拿大、英、德、法、日本
3巴西、印度、南非
4美国
类别马氏距离(ward距离)
1日本
2澳大利亚、加拿大、英、德、意、南非、俄、法
3巴西、印度、中国
4美国

​ 采用不同的距离计算公式,得到的分类也是不相同的。

变量间的相似度量——相似系数

​ 当对p个指标进行聚类时,用相似系数来衡量变量之间的相似程度(关联度),若用 C α , β \text C_{\alpha,\beta} Cα,β表示变量之间的相似系数,则应满足:
∣ C α , β ∣ ≤ 1 , 且 C α , α = 1 C α , β = ± 1 , 当 且 仅 当 α = k β , k ≠ 0 C α , β = C β , α \begin{aligned} &|\text C_{\alpha,\beta}|\le1,且\text C_{\alpha,\alpha}=1\\ &\text C_{\alpha,\beta}=\pm1,当且仅当\alpha=\text k\beta,\text k\ne0\\ &\text C_{\alpha,\beta}=\text C_{\beta,\alpha} \end{aligned} Cα,β1,Cα,α=1Cα,β=±1,α=kβ,k=0Cα,β=Cβ,α
​ 相似系数中最常用的是相关系数与夹角余弦。

  1. 夹角余弦

C i , j ( 1 ) = cos ⁡ α i j = ∑ t = 1 n x t i x t j ∑ t = 1 n x t i 2 ∑ t = 1 n x t j 2 \text C_{\rm i,j}(1)=\cos\alpha_{\rm ij}=\frac{\sum\limits_{\text t=1}^\text nx_{\rm ti}x_{\rm tj}}{\sqrt{\sum\limits_{\text t=1}^\text nx_{\rm ti}^2}\sqrt{\sum\limits_{\text t=1}^\text nx_{\rm tj}^2}} Ci,j(1)=cosαij=t=1nxti2 t=1nxtj2 t=1nxtixtj

  1. 相关系数

C i , j ( 2 ) = ∑ t = 1 n ( x t i − x ‾ i ) ( x t j − x ‾ j ) ∑ t = 1 n ( x t i − x ‾ i ) 2 ∑ t = 1 n ( x t j − x ‾ j ) 2 \text C_{\rm i,j}(2)=\frac{\sum\limits_{\rm t=1}^\text n(x_{\rm ti}-\overline x_\text i)(x_{\rm tj}-\overline x_\text j)}{\sqrt{\sum\limits_{\rm t=1}^\text n(x_{\rm ti}-\overline x_\text i)^2}\sqrt{\sum\limits_{\rm t=1}^\text n(x_{\rm tj}-\overline x_\text j)^2}} Ci,j(2)=t=1n(xtixi)2 t=1n(xtjxj)2 t=1n(xtixi)(xtjxj)

类间距离

​ 前面,我们介绍了两个向量之间的距离,下面我们介绍两个类别之间的距离:

​ 设 d i j d\rm_{ij} dij表示;两个样品 x i , x j x_\text i,x_\text j xi,xj之间的距离, G p , G q \rm G_p,G_q Gp,Gq分别表示两个类别,各自含有 n p , n q \rm n_p,n_q np,nq个样品。

  • 最短距离:

D p q = min ⁡ i ∈ G p , j ∈ G q d i j D_{\rm pq}=\min_{\rm i\in G_p,j\in G_q}d_{\rm ij} Dpq=iGp,jGqmindij

​ 即用两类中样品之间的距离最短者作为两类间距离。

  • 最长距离:

D p q = max ⁡ i ∈ G p , j ∈ G q d i j D_{\rm pq}=\max_{\rm i\in G_p,j\in G_q}d_{\rm ij} Dpq=iGp,jGqmaxdij

​ 即用两类中样品之间的距离最长者作为两类间距离。

  • 类平均距离:

D p q = 1 n p n q ∑ i ∈ G p ∑ j ∈ G q d i j D_{\rm pq}=\frac{1}{\rm n_pn_q}\sum_{\rm i\in G_p}\sum_{\rm j\in G_q}d_{\rm ij} Dpq=npnq1iGpjGqdij

​ 即用两类中所有两两样品之间的距离的平均作为两类间的距离

  • 重心距离:

D p q = d ( x ‾ p , x ‾ q ) = ( x ‾ p − x ‾ q ) T ( x ‾ p − x ‾ q ) D_{\rm pq}=d(\overline x_\text p,\overline x_\text q)=\sqrt{(\overline x_\text p-\overline x_\text q)^\text T(\overline x_\text p-\overline x_\text q)} Dpq=d(xp,xq)=(xpxq)T(xpxq)

​ 其中 x ‾ p , x ‾ q \overline x_\text p,\overline x_\text q xp,xq分别是 G p , G q \rm G_p,G_q Gp,Gq的重心,这是用两类的重心之间的欧式距离作为两类间的距离。(类G的样本x有p个不同的属性,所以类的样本是一个向量)

  • 离差平方和距离(ward):

D p q 2 = n p n q n p + n q ( x ‾ p − x ‾ q ) T ( x ‾ p − x ‾ q ) D_{\rm pq}^2=\frac{\rm n_pn_q}{\rm n_p+n_q}(\overline x_\text p-\overline x_\text q)^\text T(\overline x_\text p-\overline x_\text q) Dpq2=np+nqnpnq(xpxq)T(xpxq)

​ 显然,离差平方和距离与重心距离的平方成正比。

谱系聚类法的步骤

基本思想

  1. 选择样本间距离的定义及类间距离的定义;
  2. 计算n个样本两两之间的距离,得到距离矩阵 D = ( d i j ) D=(d_{\rm ij}) D=(dij)
  3. 构造个类,每类只含有一个样本;
  4. 合并符合类间距离定义要求的两类为一个新类;
  5. 计算新类与当前各类的距离。若类的个数为1,则转到步骤6,否则回到步骤4;
  6. 画出聚类图;
  7. 决定类的个数和类;

步骤

  1. n个样品开始作为n个类,计算两两之间的距离或相似系数,得到实对称矩阵:

D 0 = [ d 11 d 12 ⋯ d 1 n d 21 d 22 ⋯ d 2 n ⋮ ⋮ ⋱ ⋮ d n 1 d n 2 ⋯ d n n ] {\bf D}_0= \begin{bmatrix} d_{11}&d_{12}&\cdots&d_{\rm 1n}\\ d_{21}&d_{22}&\cdots&d_{\rm 2n}\\ \vdots&\vdots&\ddots&\vdots\\ d_{\rm n1}&d_{\rm n2}&\cdots&d_{\rm nn}\\ \end{bmatrix} D0=d11d21dn1d12d22dn2d1nd2ndnn

  1. 从D0的非主对角线先上找到最小(距离)或最大元素(相似系数),设该元素是 D p q \text D_{\rm pq} Dpq,则将 G p , G q \rm G_p,G_q Gp,Gq合并成一个新类 G r = { G p , G q } \rm G_r=\{G_p,G_q\} Gr={Gp,Gq},在 D 0 \text D_0 D0中去掉 G p , G q \rm G_p,G_q Gp,Gq所在的两行、两列,并加上新类与其余各类之间的距离(或相似系数),得到n-1阶矩阵 D 1 \rm D_1 D1
  2. D 1 \rm D_1 D1出发重复步骤 ( 2 ) (2) (2)的做法得到 D 2 \rm D_2 D2,再由 D 2 \rm D_2 D2出发重复上述步骤,直到所有样品聚为一个大类为止。
  3. 在合并过程中记下合并样品的编号及两类合并时的水平,并绘制聚类谱系图。

例3

​ 为了研究辽宁等5省1991年城镇居民生活消费情况的分布规律,根据调查资料做类型分类,用最短距离做类间分类。数据如下:

x 1 x_1 x1 x 2 x_2 x2 x 3 x_3 x3 x 4 x_4 x4 x 5 x_5 x5 x 6 x_6 x6 x 7 x_7 x7 x 8 x_8 x8
辽宁17.9039.778.4912.9419.2711.052.0413.29
浙江27.6850.3711.3513.3019.2514.592.7513.29
河南39.4227.938.208.1416.179.421.5514.87
甘肃49.1627.989.019.3215.999.101.829.76
青海510.0628.6410.5210.0516.188.391.9610.82

​ 将每一个省区视为一个样品,先计算5个省区之间的欧氏距离,用 D 0 \rm D_0 D0表示距离矩阵(对称矩阵,固给出下三角阵)。
D 0 = [ 0 11.67 0 13.80 24.63 0 13.12 24.06 2.20 0 12.80 23.54 3.51 2.21 0 ] \text D_0= \begin{bmatrix} 0\\ 11.67&0\\ 13.80&24.63&0\\ 13.12&24.06&\textcolor{red}{2.20}&0\\ 12.80&23.54&3.51&2.21&0 \end{bmatrix} D0=011.6713.8013.1212.80024.6324.0623.5402.203.5102.210
D 0 \text D_0 D0中最小元素为 D 0 ( 4 , 3 ) \text D_0(4,3) D0(4,3),也就是甘肃和河南之间的欧式距离最小,所以我们将3(河南)和4(甘肃)合并为一类,为类6,代替了3、4两类。类6与剩余的1、2、5之间的距离分别为:
d ( 3.4 ) 1 = min ⁡ ( d 31 , d 41 ) = min ⁡ ( 13.80 , 13.12 ) = 13.12 d ( 3.4 ) 2 = min ⁡ ( d 32 , d 42 ) = min ⁡ ( 24.63 , 24.06 ) = 24.06 d ( 3.4 ) 5 = min ⁡ ( d 52 , d 52 ) = min ⁡ ( 3.51 , 2.21 ) = 2.21 \begin{aligned} &d(3.4)_1=\min(d_{31},d_{41})=\min(13.80,13.12)=13.12\\ &d(3.4)_2=\min(d_{32},d_{42})=\min(24.63,24.06)=24.06\\ &d(3.4)_5=\min(d_{52},d_{52})=\min(3.51,2.21)=2.21\\ \end{aligned} d(3.4)1=min(d31,d41)=min(13.80,13.12)=13.12d(3.4)2=min(d32,d42)=min(24.63,24.06)=24.06d(3.4)5=min(d52,d52)=min(3.51,2.21)=2.21
​ 得到新矩阵 D 1 \text D_1 D1
D 1 = [ 0 13.12 0 24.06 11.67 0 2.21 12.08 23.54 0 ] \text D_1= \begin{bmatrix} 0\\ 13.12&0\\ 24.06&11.67&0\\ \textcolor{red}{2.21}&12.08&23.54&0 \end{bmatrix} D1=013.1224.062.21011.6712.08023.540
​ 最小元素为2.21,合并类6和类5,得到类7。类7与剩余的1、2之间的距离分别为:
d ( 5 , 6 ) 1 = min ⁡ ( d 51 , d 61 ) = min ⁡ ( 12.80 , 13.12 ) = 12.08 d ( 5 , 6 ) 2 = min ⁡ ( d 52 , d 62 ) = min ⁡ ( 23.54 , 24.06 ) = 23.54 \begin{aligned} &d(5,6)_1=\min(d_{51},d_{61})=\min(12.80,13.12)=12.08\\ &d(5,6)_2=\min(d_{52},d_{62})=\min(23.54,24.06)=23.54\\ \end{aligned} d(5,6)1=min(d51,d61)=min(12.80,13.12)=12.08d(5,6)2=min(d52,d62)=min(23.54,24.06)=23.54
​ 得到新矩阵:
D 2 = [ 0 12.08 0 23.54 11.67 0 ] \text D_2= \begin{bmatrix} 0\\ 12.08&0\\ 23.54&\textcolor{red}{11.67}&0\\ \end{bmatrix} D2=012.0823.54011.670
​ 最小元素为11.67,合并类1和类2,得到类8,此时我们有两个不同的类,他们的最近距离:
d ( 7 , 8 ) = min ⁡ ( d 71 , d 72 ) = min ⁡ ( 12.80 , 23.54 ) = 12.08 \begin{aligned} &d(7,8)=\min(d_{71},d_{72})=\min(12.80,23.54)=12.08\\ \end{aligned} d(7,8)=min(d71,d72)=min(12.80,23.54)=12.08
​ 得到新矩阵:
D 3 = [ 0 12.08 0 ] \text D_3= \begin{bmatrix} 0\\ 12.08&0\\ \end{bmatrix} D3=[012.080]
​ 最后合并为一个大类。这就是按最短距离定义类间距离的系统聚类方法。最长距离法类似。

谱系聚类的MATLAB实现

  1. 输入数据矩阵,注意行与列的实际意义

  2. 计算各样品之间的距离

    1. 欧式距离:d=pdist(A);
    2. 绝对距离:d=pdist(A,'cityblock');
    3. 明氏距离:d=pdist(A,'minkowski',r);%r要填上具体的实数
    4. 方差加权距离:d=pdist(A,'seclid');
    5. 马氏距离:d=pdist(A,'mahal');

    注意:以上命令输出的结果是一个行向量,如果要得到距离矩阵,可以用命令:D=squareform(d);

    若要得到下三角阵,可以用命令:k=tril(squareform(d))

  3. 选择不同的类间距离进行聚类

    1. 最短聚类:z=linkage(d);%此处及一下的d都是(2)中算出的距离行向量
    2. 最常距离:z=linkage(d,'complete');
    3. 中间距离:z=linkage(d,'centroid');
    4. 中心距离:z=linkage(d,'average');
    5. 离差平方和:z=linkage(d,'ward');

    注意:此时输出的结果是一个n-1行3列的矩阵(因为每次聚类的结果都是两个类合成一个类,所以是n-1阶),每一行表示在某水平上合并为一类的序号。

  4. 作出谱系聚类图

    命令为:H=dendrogram(z,d);%注意若样本少于30,可以省去d,否则必须填写

  5. 根据分类数目,输出聚类结果

    T=cluster(z,k);%注意k是分类数目,z是(3)中的结果

    find(T=k0);%找出属于第k0类的样品编号

例4:将例3利用MATLAB软件进行聚类

  1. 输入数据矩阵:
b =

    7.9000   39.7700    8.4900   12.9400   19.2700   11.0500    2.0400   13.2900
    7.6800   50.3700   11.3500   13.3000   19.2500   14.5900    2.7500   14.8700
    9.4200   27.9300    8.2000    8.1400   16.1700    9.4200    1.5500    9.7600
    9.1600   27.9800    9.0100    9.3200   15.9900    9.1000    1.8200   11.3500
   10.0600   28.6400   10.5200   10.0500   16.1800    8.3900    1.9600   10.8100
  1. 计算各样品之间的距离:
d=pdist(b);		%欧式距离

​ 输出结果为:

d =

   11.6726   13.8054   13.1278   12.7983   24.6353   24.0591   23.5389    2.2033    3.5037    2.2159

​ 共有是10个元素( C 5 2 \text C_5^2 C52),然后可以求出距离矩阵和三角矩阵:

D=squareform(d);	%距离矩阵
k=tril(D);		%三角矩阵

​ 得到的结果如下:

D =

         0   11.6726   13.8054   13.1278   12.7983
   11.6726         0   24.6353   24.0591   23.5389
   13.8054   24.6353         0    2.2033    3.5037
   13.1278   24.0591    2.2033         0    2.2159
   12.7983   23.5389    3.5037    2.2159         0
   
   k =

         0         0         0         0         0
   11.6726         0         0         0         0
   13.8054   24.6353         0         0         0
   13.1278   24.0591    2.2033         0         0
   12.7983   23.5389    3.5037    2.2159         0
  1. 选择不同的类间距离进行聚类:
z=linkage(d);	%通过最短距离进行聚类

​ 输出结果为:

z =

    3.0000    4.0000    2.2033
    5.0000    6.0000    2.2159
    1.0000    2.0000   11.6726
    7.0000    8.0000   12.7983
  • 在2.2033的水平, G 3 , G 4 \rm G_3,G_4 G3,G4合成一类为 G 6 \rm G_6 G6
  • 在2.2159的水平, G 6 , G 5 \rm G_6,G_5 G6,G5合成一类为 G 7 \rm G_7 G7
  • 在11.6726的水平, G 1 , G 2 \rm G_1,G_2 G1,G2合成一类为 G 8 \rm G_8 G8
  • 在2.2033的水平, G 7 , G 8 \rm G_7,G_8 G7,G8合成一类。
  1. 作出谱系图
H=dendrogram(z);
最短距离聚类图
最短距离聚类图
  1. 输出聚类结果
T=cluster(z,3);		%分为3类

​ 输出结果如下:

T =

     1
     2
     3
     3
     3

​ 结果表明:若分为三类,则辽宁是一类,浙江也是一类,河南、青海和甘肃是另一类。

​ 我们可以找出第三类的样品编号:

find(T==3)

​ 结果如下:

ans =

     3
     4
     5

​ 也就是河南、青海和甘肃分为一类。

K-平均聚类算法

介绍

  • ​ K-平均(k-means)算法以k为参数,把n个对象分为k个簇,以使簇内对象具有较高的相似对,而簇间的相似度较低。
  • 相似度的计算根据一个簇中对象的平均值(被看做簇的重心)来进行。

算法的基本思想

  1. 首先,随机的选择k个对象,每个对象初始的代表了一个簇的平均值;(也就是初始化k个重心)
  2. 对剩余的每个对象,根据其余各个簇中心的距离,将它分给最近的重心;
  3. 然后重新计算每个簇的平均值。
  4. 这个过程不断重复,直到准则函数收敛(或者结果不再变化)。

​ 通常选择方差作为收敛准则函数:
E = ∑ i = 1 m ∑ p ∈ C i ∣ p − m i ∣ 2 \text E=\sum_{\rm i=1}^\text m\sum_{\rm p\in C_i}|\rm p-m_i|^2 E=i=1mpCipmi2
​ 其中E为数据库中所有对象的均方值之和;p为代表对象的空间中的一个点;mi为聚类Ci的均值(p和mi均是多维的)。

​ 这个准则试图使得生成的结果尽可能地紧凑和独立;当结果簇是密集的,且簇与簇之间区别明显时,算法的效果较好。

算法的特点

  • 只适用于聚类均值有意义的场合,在某些应用中,如:数据集中包含符号属性时,直接应用k-means算法就有问题;
  • 用户必须事先指定k的个数;
  • 噪声和孤立点数据敏感,少量的该类数据能够对聚类均值起到很大影响。
  • 3
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值