从零开始-Machine Learning学习笔记(26)-聚类

0. 前言

  原本计计划用两个早晨看完这一章节的,没想到竟然很顺利的只用了一早上就看完了。所以在此也跟各位同道中的小伙伴们分享一下,千万不要觉得这些知识枯燥,没有现成的算法直接使用起来那么爽,那么有成就感,但是掌握这些算法的原理却是我们在今后使用这些算法的根基,根基不稳,终究也就只是个调包怪罢了。认真看进去的话,收获非常大,且触类旁通,对于你在别的领域,或许也会有些许的启迪。

1. 聚类的性能度量和距离计算

  聚类任务是“无监督学习”中研究最多、应用最广的。聚类试图将数据集中的样本划分为若干个通常是不相交的子集,每个子集称为一个"簇"(cluster)。

1.1 性能度量

  聚类性能度量大致有两类. 一类是将聚类结果与某个"参考模型" (reference model)进行比较,称为"外部指标" (external i丑dex); 另一类是直接考察聚类结果而不利用任何参考模型,称为"内部指标" (internal
index)。

其中:
a: 表示在聚类模型和参考模型中都属于同一簇的样本对
b: 表示在聚类模型中属于同一簇,但在参考模型中不属于同一簇的样本对
c: 表示在参考模型中属于同一簇,但在聚类模型中不属于同一簇的样本对
d: 表示在聚类模型和参考模型中都不属于同一簇的样本对
这四个值的感觉其实跟混淆矩阵类似,都是用于判定聚类产生的簇的好坏。有了这四个的值,就可以求出以下的几个性能度量的外部指标
Jaccard 系数(Jaccard Coefficient, JC):
J C = a a + b + c JC = \frac{a}{a+b+c} JC=a+b+ca
FM 指数(Fowlkes and Mallows Index, FMI):
F M I = a a + b ⋅ a a + c FMI = \sqrt{\frac{a}{a+b}· \frac{a}{a+c}} FMI=a+baa+ca
Rand 指数(Rand Index, RI):
R I = 2 ( a + d ) m ( m − 1 ) RI = \frac{2(a+d)}{m(m-1)} RI=m(m1)2(a+d)
上述性能度量的结果都在[0, 1]之间,其值越大越好。
  聚类性能度量内部指标,考虑聚类结果的簇划分 C = { c 1 , c 2 , . . . , c k } C =\{c_1, c_2, ... ,c_k\} C={c1,c2,...,ck},定义:
簇 C 内 样 本 间 的 平 均 距 离 : a v g ( C ) = 2 ∣ C ∣ ( ∣ C ∣ − 1 ) ∑ 1 ≤ i ≤ j ≤ ∣ C ∣ d i s t ( x i , x j ) 簇 C 内 样 本 间 的 最 远 距 离 : d i a m ( C ) = max ⁡ 1 ≤ i ≤ j ≤ ∣ C ∣ d i s t ( x i , x j ) 簇 C 内 样 本 间 的 最 近 距 离 : d m i n ( C i , C j ) = min ⁡ 1 ≤ i ≤ j ≤ ∣ C ∣ d i s t ( x i , x j ) 簇 C i 与 簇 C j 中 心 点 的 距 离 : d c e n ( C i , C j ) = d i s t ( μ i , μ j ) 簇C内样本间的平均距离: avg(C) = \frac{2}{|C|(|C|-1)}\sum_{1 \leq i \leq j \leq |C|} dist(x_i, x_j) \\ 簇C内样本间的最远距离: diam(C) = \max_{1 \leq i \leq j \leq |C|}dist(x_i, x_j) \\ 簇C内样本间的最近距离:d_{min}(C_i,C_j) = \min_{1 \leq i \leq j \leq |C|}dist(x_i, x_j) \\ 簇C_i与簇C_j中心点的距离: d_{cen}(C_i, C_j) = dist(\mu_i, \mu_j) Cavg(C)=C(C1)21ijCdist(xi,xj)Cdiam(C)=1ijCmaxdist(xi,xj)Cdmin(Ci,Cj)=1ijCmindist(xi,xj)CiCjdcen(Ci,Cj)=dist(μi,μj)
DB 指数(Davies-Bouldin Index, DBI):
D B I = 1 k ∑ i = 1 k max ⁡ j ≠ i ( a v g ( C i ) + a v g ( C j ) d c e n ( μ i , μ j ) ) DBI = \frac{1}{k} \sum_{i=1}^{k} \max_{j \neq i} ( \frac{avg(C_i)+avg(C_j)}{d_{cen} (\mu_i,\mu_j)}) DBI=k1i=1kj̸=imax(dcen(μi,μj)avg(Ci)+avg(Cj))
Dunn指数(Dunn Index, DI):
D I = min ⁡ 1 ≤ i ≤ k { min ⁡ j ≠ i d m i n ( C i , C j ) max ⁡ 1 ≤ l ≤ k d i a m ( C l ) } DI = \min_{1 \leq i \leq k}\{ \min_{j \neq i }\frac{d_{min}(C_i,C_j)}{\max_{1 \leq l \leq k}diam(C_l)}\} DI=1ikmin{j̸=iminmax1lkdiam(Cl)dmin(Ci,Cj)}
其中,DBI的值越小越好,而DI则相反,值越大越好。

1.2 距离计算

  给定样本 x i x_i xi x j x_j xj,通常使用闵可夫斯基距离来计算两个样本之间的距离:
∣ ∣ x i − x j ∣ ∣ p = ( ∑ u = 1 n ∣ x i u − x j u ∣ p ) 1 p ||x_i-x_j||_p = (\sum_{u=1}^{n}|x_{iu}-x_{ju}|^p)^{\frac{1}{p}} xixjp=(u=1nxiuxjup)p1
“闵氏距离”在数学上也称为p范数;
当p=2的时候,这时的距离就称之为“欧几里得距离”,就是我们常用的“欧式距离”:
∣ ∣ x i − x j ∣ ∣ 2 = ∑ u = 1 n ∣ x i u − x j u ∣ 2 ||x_i-x_j||_2 = \sqrt{\sum_{u=1}^{n}|x_{iu}-x_{ju}|^2} xixj2=u=1nxiuxju2
当p=1的时候,这时候的距离就称之为“曼哈顿距离”:
∣ ∣ x i − x j ∣ ∣ 1 = ∑ u = 1 n ∣ x i u − x j u ∣ ||x_i-x_j||_1 = \sum_{u=1}^{n}|x_{iu}-x_{ju}| xixj1=u=1nxiuxju
以上的距离计算方法是针对于数值型的数据,但是有些时候,数据集中往往会出现非数值型的特征,比如花的颜色如{红色, 黄色, 绿色}等,一般我们在处理这些非数值型的特征的时候,一般会先将其转化数值型的特征,然后再进行计算。但是书中给了我们另一种针对与非数值型数据计算的方法VDM(Value Difference Matric):
  令 m u , a m_{u,a} mua表示在属性u上取值为a的样本数, m u , a , i m_{u,a,i} muai 表示在第i个样本簇中在属性u上取值为a的样本数,k为样本簇数,则属性u上两个离散值a与b之间的VDM 距离为:
V D M p ( a , b ) = ∑ i = 1 k ∣ m u , a , i m u , a − m u , b , i m u , b ∣ p VDM_p(a, b) = \sum_{i=1}^{k}|\frac{m_{u,a,i}}{m_{u,a}} - \frac{m_{u,b,i}}{m_{u,b}}|^p VDMp(a,b)=i=1kmu,amu,a,imu,bmu,b,ip
其实不难发现,式中的两个比值就是在第i个簇中属性u取值为a的样本数占所有样本中属性u取值为a的样本数的比例,然后使用这个比例来计算距离!
  如果一个训练集中既有数值型特征,又有非数值型特征,就可以将闵氏距离和VDM结合起来
M i n k o v D M p ( x i , x j ) = ( ∑ u = 1 n c ∣ x i u − x j u ∣ p + ∑ u = n c + 1 n V D M p ( x i u − x j u ) ) 1 p MinkovDM_p(x_i,x_j)=(\sum_{u=1}^{n_c}|x_{iu}-x_{ju}|^p + \sum_{u=n_c+1}^{n}VDM_p(x_{iu}-x_{ju}))^{\frac{1}{p}} MinkovDMp(xi,xj)=(u=1ncxiuxjup+u=nc+1nVDMp(xiuxju))p1

2. 原型聚类

  原型聚类亦称"基于原型的聚类" (prototype~ based clustering)) 此类算法假设聚类结构能通过一组原型刻画,在现实聚类任务中极为常用。通常情形下,算法先对原型进行初始化,然后对原型进行迭代更新求解。采用不同的原型表示、不同的求解方式,将产生不同的算法。

2.1 K-means

  K-means顾名思义就是k均值算法,针对于所有的簇划分 C = { C 1 , C 2 , . . . , C k } C = \{C_1, C_2, ... ,C_k\} C={C1,C2,...,Ck}最小化平方误差:
E = ∑ i = 1 k ∑ x ∈ C i ∣ ∣ x − μ i ∣ ∣ 2 2 E = \sum_{i=1}^{k}\sum_{x∈C_i}||x-\mu_i||_2^2 E=i=1kxCixμi22
书上给出的算法如下:

其实简而言之就是以下的几个步骤:
[1]:设置簇类数k,并在训练集上随机选择k个样本作为初始的均值向量;
[2]:将训练集中的所有样本与这k个向量求距离,并将其归为距离最短的簇中去;
[3]:每个簇中的样本求均值,得出新的均值向量;
[4]:重复2、3步,直到到达最大迭代轮数或者最小调整阈值。

2.2 学习向量化LVQ(Learning Vector Quantization, LVQ)

  LVQ也是试图找到一组原型向量来刻画聚类结构, 但与一般聚类算法不同的是,LVQ假设数据样本带有类别标记,学习过程利用样本的这些监督信息来辅助聚类。
  给定样本集 D = { ( X l , Y l ) , ( X 2 , y 2 ) , . . . , ( X m , Y m ) } D = \{(X_l , Y_l ), (X_2 , y_2),...,(X_m, Y_m)\} D={(Xl,Yl),(X2,y2),...,(Xm,Ym)} , 每个样本的是由n个属性描述的特征向量 ( x j 1 , x j 2 , . . . , x j n ) (x_{j1}, x_{j2},...,x_{jn}) (xj1,xj2,...,xjn) , y ∈ Y y ∈ Y yY是样本 x j x_j xj的类别标记。LVQ的目标是学得一组n维原型向量 { p 1 , p 2 , . . . , p q } \{p_1, p_2,...,p_q\} {p1,p2,...,pq},每个原型向量代表一个聚类簇,簇标记 t i ∈ Y t_i∈Y tiY。下面是LVQ的算法伪代码:

其实简而言之就是以下的几个步骤:
[1]:确定原型向量个数q,并随机选择q个原型向量,及其对应的类别标记;
[2]:从训练集中随机选择一个样本,并计算其与每一个原型向量之间的距离,找到距离最短的原型向量;
[3]:更新该原型向量;如果样本和该原型向量的标记相同,则做如下更新:
p ′ = p + η ( x j − p ) p^{'} = p+\eta(x_j-p) p=p+η(xjp)
如果样本和该原型向量的标记不相同,则做如下更新:
p ′ = p − η ( x j − p ) p^{'} = p-\eta(x_j-p) p=pη(xjp)
其中, η \eta η是学习率[0,1];
[4]:重复2,3步直到满足收敛条件如到达最大迭代轮数。
  在第3步中的更新,其意义在于:若最近的原型向量p与样本的类别标记相同,则令p向样本的方向靠拢;若最近的原型向量p与样本的类别标记不相同,则令p向样本的方向远离。

【思考:】LVQ是需要样本标记来作为辅助聚类的,那么初始化原型向量则肯定不能选择样本标记一样的,否则这个聚类就没有什么意义了。所以这里我觉得原型向量的个数应该就是标记的类别个数,且在初始化的时候,应该尽量选择那些类别标记不一样的样本作为初始原型向量。

最后,LVQ训练出来的就是q个原型向量,新的样本进来之后与所有的原型向量进行距离计算,距离最近的原型向量所对应的样本标记就是新的样本的标记!

2.3 高斯混合聚类

  与K-means和LVQ不同,高斯混合聚类采用概率模型来表达聚类原型。定义高斯混合分布:
P M ( x ) = ∑ i = 1 k α i P ( x ∣ μ i , Σ i ) P_M(x) = \sum_{i=1}^{k}\alpha_iP(x|{\mu_i,\Sigma_i}) PM(x)=i=1kαiP(xμi,Σi)
该分布由k个高斯分布混合而成,其中 μ i \mu_i μi Σ i \Sigma_i Σi是每个高斯分布的均值和协方差; α i \alpha_i αi称为“混合系数”,并且满足 ∑ i = 1 k α i = 1 \sum_{i=1}^{k}\alpha_i = 1 i=1kαi=1
  若训练集 D = X 1 , X 2 , … , X m D = {X_1 , X_2 , … , X_m} D=X1X2Xm由上述过程生成,令随机变量 Z j ∈ { 1 , 2 , . . . , k } Z_j ∈ \{1 ,2,... , k\} Zj{12,...k}表示生成样本 x j x_j xj的高斯混合成分,其取值未知.显然 z j z_j zj的先验概率 P ( z j = i ) P(z_j = i) P(zj=i)对应于 α i ( i = 1 , 2 , … , k ) α_i(i=1 , 2 ,… , k) αi(i=12k)。根据贝叶斯定理, z j z_j zj的后验分布对应于:
γ j i = P M ( z j = i ∣ x j ) = P ( z j = i ) P M ( x j ∣ z j = i ) P M ( x j ) = α i P ( x j ∣ μ i , Σ i ) ∑ l = 1 k α l P ( x j ∣ μ l , Σ l ) \gamma_{ji} = P_M(z_j=i|x_j) = \frac{P(z_j=i)P_M(x_j|z_j=i)}{P_M(x_j)} \\ =\frac{\alpha_iP(x_j|{\mu_i, \Sigma_i})}{\sum_{l=1}^{k}\alpha_lP(x_j|{\mu_l,\Sigma_l})} γji=PM(zj=ixj)=PM(xj)P(zj=i)PM(xjzj=i)=l=1kαlP(xjμl,Σl)αiP(xjμi,Σi)

其中,上式中的概率可以这样求解:
P ( x j ∣ μ i , Σ i ) = p ( x j ) = 1 ( 2 π ) n 2 ∣ Σ ∣ 1 2 e − 1 2 ( x j − μ i ) T Σ i − 1 ( x j − μ i ) ) P(x_j|{\mu_i, \Sigma_i}) = p(x_j) = \frac{1}{(2\pi)^{\frac{n}{2}} |\Sigma|^{\frac{1}{2}}}e^{-\frac{1}{2}(x_j-\mu_i)^T\Sigma_i^{-1}(x_j-\mu_i))} P(xjμi,Σi)=p(xj)=(2π)2nΣ211e21(xjμi)TΣi1(xjμi))

所以到这里可以看出 γ i j \gamma_{ij} γij其实是一个m*k的矩阵,其中m是样本的个数,k是 α i \alpha_i αi的数量。但是可能还是会有疑问,这些值我都没有该怎么求呢?别急,高斯混合聚类也是一个迭代过程, α i \alpha_i αi μ i \mu_i μi Σ i \Sigma_i Σi在最开始都会被初始化的。
  最后高斯混合聚类会将样本划分为k个簇 C = { C 1 , C 2 , . . . , C k } C=\{C_1, C_2, ..., C_k\} C={C1,C2,...,Ck},每个样本的 x j x_j xj的簇标记 λ j \lambda_j λj为:
λ j = arg ⁡ max ⁡ i ∈ { 1 , 2 , . . . , k } γ i j \lambda_j = \arg \max_{i∈\{1,2,...,k\}}\gamma_{ij} λj=argi{1,2,...,k}maxγij

其实就是选取最大的 γ i j \gamma_{ij} γij
给定样本集D,通常采用极大似然估计,使用EM算法进行对 α i \alpha_i αi μ i \mu_i μi Σ i \Sigma_i Σi这三个变量进行迭代。先写出其对数似然:
L L ( D ) = l n ( ∏ j = 1 m P M ( x j ) ) = ∑ j = 1 m l n ( ∑ i = 1 k α i P ( x j ∣ μ i Σ i ) ) LL(D) = ln(\prod_{j=1}^{m}P_M(x_j)) \\ = \sum_{j=1}^{m}ln(\sum_{i=1}^{k}\alpha_iP(x_j|{\mu_i\Sigma_i})) LL(D)=ln(j=1mPM(xj))=j=1mln(i=1kαiP(xjμiΣi))

分别对 μ i \mu_i μi Σ i \Sigma_i Σi求偏导数,并令其偏导数为0,在此之前,先对 P ( x j ∣ μ i , Σ i ) P(x_j|{\mu_i,\Sigma_i}) P(xjμi,Σi)求偏导数,之后会用到:
∂ P ( x j ∣ μ i , Σ i ) ∂ μ i = 1 ( 2 π ) n 2 ∣ Σ ∣ 1 2 e − 1 2 ( x j − μ i ) T Σ i − 1 ( x j − μ i ) ) ∗ [ ( x j − μ i ) ] = P ( x j ∣ μ i , Σ i ) ( x j − μ i ) T Σ i − 1 \frac{\partial P(x_j|{\mu_i,\Sigma_i})}{\partial \mu_i} = \frac{1}{(2\pi)^{\frac{n}{2}} |\Sigma|^{\frac{1}{2}}}e^{-\frac{1}{2}(x_j-\mu_i)^T\Sigma_i^{-1}(x_j-\mu_i))}*[(x_j-\mu_i)] =P(x_j|{\mu_i,\Sigma_i})(x_j-\mu_i)^T\Sigma_i^{-1} \\ μiP(xjμi,Σi)=(2π)2nΣ211e21(xjμi)TΣi1(xjμi))[(xjμi)]=P(xjμi,Σi)(xjμi)TΣi1

对于 Σ i \Sigma_i Σi求偏导数:
∂ P ( x j ∣ μ i , Σ i ) ∂ Σ i = 1 ( 2 π ) n 2 [ e − 1 2 ( x j − μ i ) T Σ i − 1 ( x j − μ i ) ∣ Σ ∣ 1 2 ] ′ = 1 ( 2 π ) n 2 e − 1 2 ( x j − μ i ) T Σ i − 1 ( x j − μ i ) ∗ 1 2 ( x j − μ i ) T ( x j − μ i ) ∣ Σ ∣ 2 ∗ ∣ Σ ∣ − e − 1 2 ( x j − μ i ) T Σ i − 1 ( x j − μ i ) ∗ 1 2 ∣ Σ ∣ ∣ Σ ∣ = 1 2 1 ( 2 π ) n 2 [ e − 1 2 ( x j − μ i ) T Σ i − 1 ( x j − μ i ) ∗ ( x j − μ i ) T ( x j − μ i ) ∣ Σ ∣ 1 2 − e − 1 2 ( x j − μ i ) T Σ i − 1 ( x j − μ i ) ∗ ∣ Σ ∣ ] = 1 2 P ( x j ∣ μ i , Σ i ) ( x j − μ i ) T ( x j − μ i ) − 1 2 P ( x j ∣ μ i , Σ i ) ∗ ∣ Σ ∣ = 1 2 P ( x j ∣ μ i , Σ i ) ( ( x j − μ i ) T ( x j − μ i ) − ∣ Σ ∣ ) \frac{\partial P(x_j|{\mu_i,\Sigma_i})}{\partial \Sigma_i} =\frac{1}{(2\pi)^{\frac{n}{2}}}[\frac{e^{-\frac{1}{2}(x_j-\mu_i)^T\Sigma_i^{-1}(x_j-\mu_i)}}{|\Sigma|^{\frac{1}{2}}}]^{'} \\= \frac{1}{(2\pi)^{\frac{n}{2}}} \frac{e^{-\frac{1}{2}(x_j-\mu_i)^T\Sigma_i^{-1}(x_j-\mu_i)}*\frac{\frac{1}{2}(x_j-\mu_i)^T(x_j-\mu_i)}{|\Sigma|^2}*\sqrt{|\Sigma|} -e^{-\frac{1}{2}(x_j-\mu_i)^T\Sigma_i^{-1}(x_j-\mu_i)}*\frac{1}{2\sqrt{|\Sigma|}}}{|\Sigma|}\\ =\frac{1}{2}\frac{1}{(2\pi)^{\frac{n}{2}}}[e^{-\frac{1}{2}(x_j-\mu_i)^T\Sigma_i^{-1}(x_j-\mu_i)}*\frac{(x_j-\mu_i)^T(x_j-\mu_i)}{|\Sigma|^\frac{1}{2}} -e^{-\frac{1}{2}(x_j-\mu_i)^T\Sigma_i^{-1}(x_j-\mu_i)}*\sqrt|\Sigma|] \\ =\frac{1}{2}P(x_j|{\mu_i,\Sigma_i})(x_j-\mu_i)^T(x_j-\mu_i) - \frac{1}{2}P(x_j|{\mu_i,\Sigma_i})*|\Sigma| \\ =\frac{1}{2}P(x_j|{\mu_i,\Sigma_i})((x_j-\mu_i)^T(x_j-\mu_i)-|\Sigma|) ΣiP(xjμi,Σi)=(2π)2n1[Σ21e21(xjμi)TΣi1(xjμi)]=(2π)2n1Σe21(xjμi)TΣi1(xjμi)Σ221(xjμi)T(xjμi)Σ e21(xjμi)TΣi1(xjμi)2Σ 1=21(2π)2n1[e21(xjμi)TΣi1(xjμi)Σ21(xjμi)T(xjμi)e21(xjμi)TΣi1(xjμi) Σ]=21P(xjμi,Σi)(xjμi)T(xjμi)21P(xjμi,Σi)Σ=21P(xjμi,Σi)((xjμi)T(xjμi)Σ)

于是,我们分别用LL(D)对 μ i \mu_i μi Σ i \Sigma_i Σi求偏导数有:
∂ L L ( D ) ∂ μ i = ∑ j = 1 m α i P ( x j ∣ μ i , Σ i ) ′ ∑ i = 1 k α i P ( x j ∣ μ i , Σ i ) = ∑ j = 1 m α i P ( x j ∣ μ i , Σ i ) ∑ i = 1 k α i P ( x j ∣ μ i , Σ i ) ( x j − μ i ) T Σ i − 1 = ∑ j = 1 m γ i j ( x j − μ i ) = 0 \frac{\partial LL(D)}{\partial \mu_i} = \sum_{j=1}^{m}\frac{\alpha_iP(x_j|{\mu_i,\Sigma_i})^{'}}{\sum_{i=1}^{k}\alpha_iP(x_j|{\mu_i,\Sigma_i})} \\ =\sum_{j=1}^{m}\frac{\alpha_iP(x_j|{\mu_i,\Sigma_i})}{\sum_{i=1}^{k}\alpha_iP(x_j|{\mu_i,\Sigma_i})}(x_j-\mu_i)^T\Sigma_i^{-1} \\ =\sum_{j=1}^{m}\gamma_{ij}(x_j-\mu_i) = 0 μiLL(D)=j=1mi=1kαiP(xjμi,Σi)αiP(xjμi,Σi)=j=1mi=1kαiP(xjμi,Σi)αiP(xjμi,Σi)(xjμi)TΣi1=j=1mγij(xjμi)=0

于是可以反解出 μ i \mu_i μi:
μ i = ∑ j = 1 m γ i j x j ∑ j = 1 m γ i j \mu_i = \frac{\sum_{j=1}^{m}\gamma_{ij}x_j}{\sum_{j=1}^{m}\gamma_{ij}} μi=j=1mγijj=1mγijxj
同理,我们继续对用LL(D)对 Σ i \Sigma_i Σi求偏导数有:
∂ L L ( D ) ∂ Σ i = ∑ j = 1 m α i P ( x j ∣ μ i , Σ i ) ′ ∑ i = 1 k α i P ( x j ∣ μ i , Σ i ) = ∑ j = 1 m α i P ( x j ∣ μ i , Σ i ) ∑ i = 1 k α i P ( x j ∣ μ i , Σ i ) 1 2 ( ( x j − μ i ) T ( x j − μ i ) − ∣ Σ ∣ ) = ∑ j = 1 m γ i j 1 2 ( ( x j − μ i ) T ( x j − μ i ) − ∣ Σ ∣ ) = ∑ j = 1 m γ i j ( ( x j − μ i ) T ( x j − μ i ) − ∣ Σ ∣ ) = 0 \frac{\partial LL(D)}{\partial \Sigma_i} = \sum_{j=1}^{m}\frac{\alpha_iP(x_j|{\mu_i,\Sigma_i})^{'}}{\sum_{i=1}^{k}\alpha_iP(x_j|{\mu_i,\Sigma_i})} \\ =\sum_{j=1}^{m}\frac{\alpha_iP(x_j|{\mu_i,\Sigma_i})}{\sum_{i=1}^{k}\alpha_iP(x_j|{\mu_i,\Sigma_i})}\frac{1}{2}((x_j-\mu_i)^T(x_j-\mu_i)-|\Sigma|) \\ =\sum_{j=1}^{m}\gamma_{ij}\frac{1}{2}((x_j-\mu_i)^T(x_j-\mu_i)-|\Sigma|) \\ =\sum_{j=1}^{m}\gamma_{ij}((x_j-\mu_i)^T(x_j-\mu_i)-|\Sigma|) = 0 ΣiLL(D)=j=1mi=1kαiP(xjμi,Σi)αiP(xjμi,Σi)=j=1mi=1kαiP(xjμi,Σi)αiP(xjμi,Σi)21((xjμi)T(xjμi)Σ)=j=1mγij21((xjμi)T(xjμi)Σ)=j=1mγij((xjμi)T(xjμi)Σ)=0
于是我们可以反解出 Σ i \Sigma_i Σi
Σ i = ∑ j = 1 m γ i j ( x j − μ i ) T ( x j − μ i ) ∑ j = 1 m γ i j \Sigma_i = \frac{\sum_{j=1}^{m}\gamma_{ij}(x_j-\mu_i)^T(x_j-\mu_i)}{\sum_{j=1}^{m}\gamma_{ij}} Σi=j=1mγijj=1mγij(xjμi)T(xjμi)

对于 α i \alpha_i αi,我们使用LL(D)的拉格朗日形式有:
L L ( D ) + λ ( ∑ i = 1 k α i − 1 ) LL(D)+\lambda(\sum_{i=1}^{k}\alpha_i-1) LL(D)+λ(i=1kαi1)
此拉格朗日式对 α i \alpha_i αi求偏导数为并令其为零,于是有:
∑ j = 1 m α i P ( x j ∣ μ i , Σ i ) ∑ i = 1 k α i P ( x j ∣ μ i , Σ i ) + λ = 0 \sum_{j=1}^{m}\frac{\alpha_iP(x_j|{\mu_i,\Sigma_i})}{\sum_{i=1}^{k}\alpha_iP(x_j|{\mu_i,\Sigma_i})} +\lambda=0 j=1mi=1kαiP(xjμi,Σi)αiP(xjμi,Σi)+λ=0
两边同时乘以 α i \alpha_i αi,有 λ = − m \lambda=-m λ=m,故有:
α i = 1 m ∑ j = 1 m γ i j \alpha_i = \frac{1}{m}\sum_{j=1}^{m}\gamma_{ij} αi=m1j=1mγij
ok,到了这里终于可以理解算法中的迭代部分是什么意思了:

其实简而言之就是以下的几个步骤:
[1]:设置簇个数k,初始化 α i \alpha_i αi μ i \mu_i μi Σ i \Sigma_i Σi
[2]:计算 γ i j \gamma_{ij} γij矩阵;
[3]:根据 γ i j \gamma_{ij} γij矩阵更新 α i \alpha_i αi μ i \mu_i μi Σ i \Sigma_i Σi
[4]:重复2,3步直到收敛(如最大迭代次数);
[5]:根据最大 γ i j \gamma_{ij} γij将训练集划分到对应的簇中去。

对于新的样本,也是根据最大 γ i j \gamma_{ij} γij划分到对应的簇中去。

3. 密度聚类 - DBSCAN算法

  密度聚类亦称"基于密度的聚类" (density-based clustering),此类算法假设聚类结构能通过样本分布的紧密程度确定。通常情形下,密度聚类算法从样本密度的角度来考察样本之间的可连接性,并基于可连接样本不断扩展聚类簇以获得最终的聚类结果。
  DBSCAN(Density-Based Spatial Clustering of Applications with Noise)是一种著君的密度聚类算法,它基于一组"邻域" (neighborhood)参数(e,Minpts)来刻画样本分布的紧密程度.给定数据集D定义下面这几个概念:

  基于这些概念, DBSCAN 将"簇"定义为:由密度可达关系导出的最大的密度相连样本集合.形式化地说,给定邻域参数(e,Minpts),簇C是满足以下性质的非空样本子集:
连接性(connectivity): x i ∈ C , X j ∈ C → x i 与 x j 密 度 相 连 x_i ∈ C,X_j ∈ C → x_i与x_j密度相连 xiCXjCxixj
最大性(maximality): x i ∈ C , x j 由 x i 密 度 可 达 → x j ∈ C x_i ∈ C, x_j由x_i密度可达 → x_j ∈ C xiCxjxixjC

其实简而言之就是以下的几个步骤:
[1]:初始化邻域参数(e,Minpts),初始化核心对象集合为空;
[2]:遍历每一个样本,计算以其为核心对象时,其邻域中的样本数是够大于Minpts,如果是,则将该样本加入到核心对象集合中;
[3]:初始化聚类簇数k,初始化未访问的样本集合为所有样本;
[4]:进行循环运算直到核心对象集合为空:a.记录当前未访问的样本集合;b.随机选取一个核心对象,并初始化队列Q;c.从未访问样本中剔除该样本;d.反复计算,不断从未访问样本中剔除样本直到队列为空;
[5]:获取之前剔除的样本,组成一个簇;
[6]:从核心对象中剔除这个簇中的样本,返回第4步;

4. 层次聚类 - AGNES

  层次聚类(hierarchical clustering)试图在不同层次对数据集进行划分,从而形成树形的聚类结构。数据集的划分可采用"自底向上"的聚合策略,也可采用"自顶向下" 的分拆策略。
  AGNES(AGglomerative NESting)是一种采用自底向上聚合策略的层次聚类算法。它先将数据集中的每个样本看作一个初始聚类簇,然后在算法运行的每一步中找出距离最近的两个粟类簇进行合并,该过程不断重复,直至达到预设的聚类簇个数。这里的距离可以是最小距离,最大距离和平均距离:

其实简而言之就是以下的几个步骤:
[1]:选择距离度量函数d,聚类簇数k;
[2]:初始化单样本聚类簇,每个簇内都只有一个样本,即一个样本一个簇;
[3]:计算任意两个簇之间的距离;
[4]:进行循环运算直到满足收敛条件:a.合并两个距离最近的簇;b.将簇重新编号;c.重新计算任意两个簇之间的距离;

5. 写在最后

  看完本章只用了一个早晨,但是写总结却花了两个晚上,尤其本章公式比较多,确实累的够呛。但是这对于新入门的小伙伴们来说确实非常有助于理解本章的算法及其原理,尤其是在高斯混合聚类一节中,书中并没有给出多少推导,所以我在推导部分写的非常详细,所以也非常推荐大家耐心阅读。所有的算法部分,我都用自己的语言,将算法的主干部分进行了梳理。
  写总结这项工作非常的枯燥和耗时,很多时候写总结的时间都比看书所用的时间长,但是我相信有了这个工作我今后复习起来也会是非常的快!

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值