机器学习入门之聚类算法

本文为吴恩达机器学习课程的笔记系列第五篇,主要介绍几个聚类算法,包括经典的K-Means算法,以及其拓展 二分K-Means算法和另一个常用的DBSCAN算法

聚类(Clustering)

聚类(Clustering)是将数据集划分为若干相似对象组成的多个组(group)或簇(cluster)的过程, 使得同一组中对象间的相似度最大化, 不同组中对象间的相似度最小化 。属于无监督问题。

K-Means算法

K K K 就是簇的数量。这个数字是人为选择的。K-Means算法是基于质心划分的。

算法流程:

  • 首先随机选择 K K K 个点作为初始聚类中心。
  • 对数据集的每个数据,评估其到 K K K 个中心点的距离,将其与距离最近的中心点关联起来。
  • 重新计算每个簇中的平均值,更新簇中心的位置

距离的判断:欧几里得距离或余弦相似度

算法描述:

  • μ ( i ) \mu^{(i)} μ(i) 表示第 i i i个聚类中心, x ( i ) x^{(i)} x(i) 表示第 i i i个样本, m m m 表示样本数

R e p e a t {      f o r    i =    1    t o    m : c ( i ) : = 与 样 本 x ( i ) 最 近 的 簇 中 心 的 索 引      f o r    k =    1    t o    K : μ ( k ) : = 第 k 个 簇 的 平 均 位 置 } \begin{aligned} &Repeat \{ \\ & \;\; for\; i =\; 1\; to\; m:\\ &\qquad c^{(i)} := 与样本x^{(i)}最近的簇中心的索引 \\ &\;\;for\; k =\; 1\; to\; K: \\ &\qquad \mu^{(k)}:= 第k个簇的平均位置 \\ &\} \end{aligned} Repeat{fori=1tom:c(i):=x(i)fork=1toK:μ(k):=k}

算法优化

K-Means同样也要最小化聚类代价,而最小化的就是所有的数据点与其所关联的聚类中心点之间的距离之和,引入K-Means的代价函数:

J ( c ( 1 ) , . . . , c ( m ) , μ ( 1 ) , . . . , μ ( K ) ) = 1 m ∑ i = 1 m ∣ ∣ x ( i ) − μ c ( i ) ∣ ∣ 2 J(c^{(1)},...,c^{(m)},\mu^{(1)},...,\mu^{(K)})=\dfrac{1}{m}\sum\limits_{i=1}^{m}||x^{(i)}-\mu^{c^{(i)}}||^2 J(c(1),...,c(m),μ(1),...,μ(K))=m1i=1mx(i)μc(i)2 J J J 也称畸变函数(Distortion Function)

实际上,在第一个for循环里,也就是给样本分配簇中心时,就是在减小 c ( i ) c^{(i)} c(i) 引起的代价;在第二个for循环里,则是在减小 μ ( k ) \mu^{(k)} μ(k) 引起的代价。

确定k值

因为不同的初始化很有可能会引起不同的聚类结果,所以应用聚类算法时往往进行多次随机初始化,计算相应代价函数,应用 肘部法则(Elbow Method),选择较为明显的“肘关节”部分对应的 k 值作为聚类数。如下图:

在这里插入图片描述

下面补充几个其它常见的聚类算法:

二分K-Means算法

二分 K-Means(bisecting kmeans)算法,相较于常规的 K-Means,二分 K-Means 不急于一来就随机 K个聚类中心,而是首先把所有点归为一个簇,然后将该簇一分为二。计算各个所得簇的代价函数(即误差),选择误差最大的簇再进行划分(即最大程度地减少误差),重复该过程直至达到期望的簇数目。

误差采用 SSE(Sum of Squared Error)即误差平方和。SSE越小,簇中的对象越集中 。

该算法为贪心算法,计算量不小。

DBSCAN算法

DBSCAN算法是基于密度的算法,该算法将具有足够高密度的区域划分为簇,并在具有噪声的空间数据库中发现任意形状的簇,它将簇定义为密度相连的点的最大的集合。

基本概念:

  • E p s Eps Eps 邻域:给定对象半径 E p s Eps Eps 内的邻域称为该对象的 E p s Eps Eps 邻域。
  • M i n P t s MinPts MinPts:给定邻域包含的点的最小数目,用以决定点 p p p是簇的核心部分还是边界点或噪声。
  • 核心对象:如果对象的 E p s Eps Eps 邻域包含至少 M i n P t s MinPts MinPts 个的对象,则称该对象为核心对象。
  • 边界点:边界点不是核心点,但落在某个核心点的邻域内。稠密区域边缘上的点。
  • 噪音点:既不是核心点,也不是边界点的任何点。 稀疏区域中的点。
  • 直接密度可达: 如果 p p p q q q E p s Eps Eps邻域内, 而 q q q 是一个核心对象, 则称对象 p p p 从对象 q q q 出发时是直接密度可达的 (directly densityreachable)。
  • 密度可达: 如果存在一个对象链 p 1 , p 2 , . . . , p n , p 1 = q , p n = p p_1,p_2,...,p_n,p_1=q,p_n=p p1,p2,...,pn,p1=q,pn=p, 对于 p i ∈ D ( 1 ≤ i ≤ n ) p_i\in D(1\le i\le n) piD(1in) p i + 1 p_{i+1} pi+1 p i p_i pi 从关于 E p s Eps Eps M i n P t s MinPts MinPts 直接密度可达的,则 对 象 p p p 是 从对象 q q q 关于 E p s Eps Eps M i n P t s MinPts MinPts 密 度 可 达 的 (densityreachable)。
  • 密度相连: 如果存在对象 O ∈ D O\in D OD, 使对象 p p p q q q 都是从 O O O 关于 E p s Eps Eps M i n P t s MinPts MinPts 密度可达的, 那么对象 p p p q q q 是关于 E p s Eps Eps M i n P t s MinPts MinPts 密度相连的(density-connected)。
  • 基于密度的簇:是基于密度可达性的最大的密度相连的对象的集合 。
  • 噪声:不包含在任何簇中的对象。

DBSCAN算法, 就是检查数据集中每个点的 E p s Eps Eps 邻域来搜索簇。

算法流程

( 1 ) 首先将数据集 D 中 的 所 有 对 象 标 记 为 未 处 理 状 态 ( 2 ) f o r    数 据 集 D 中 每 个 对 象 p    d o ( 3 ) i f    p 已 经 归 入 某 个 簇 或 标 记 为 噪 声    t h e n ( 4 ) c o n t i n u e ; ( 5 ) e l s e ( 6 ) 检 查 对 象 p 的 E p s 邻 域 E ( p ) ; ( 7 ) i f    E ( p ) 包 含 的 对 象 数 小 于 M i n P t s    t h e n ( 8 ) 标 记 对 象 p 为 边 界 点 或 噪 声 点 ; ( 9 ) e l s e ( 10 ) 标 记 对 象 p 为 核 心 点 , 并 建 立 新 簇 C ; ( 11 ) f o r    E ( p ) 中 所 有 尚 未 被 处 理 的 对 象 q    d o ( 12 ) 检 查 其 E p s 邻 域 E ( p ) , 若 E ( p ) 包 含 至 少 M i n P t s 个 对 象 , 则 将 E ( p ) 中 未 归 入 任 何 一 个 簇 的 对 象 加 入 C \begin{aligned} &(1) \text{首先将数据集}D中的所有对象标记为未处理状态 \\ &(2) for\;数据集D中每个对象p \;do \\ &(3) \quad if \;p已经归入某个簇或标记为噪声\;then\\ &(4) \qquad continue;\\ &(5) \quad else\\ &(6) \qquad 检查对象p的Eps邻域 E(p); \\ &(7) \qquad \quad if \;E(p)包含的对象数小于MinPts \;then \\ &(8) \qquad \qquad 标记对象p为边界点或噪声点;\\ &(9) \qquad \quad else\\ &(10) \qquad \qquad 标记对象p为核心点,并建立新簇C;\\ &(11) \qquad \qquad for\; E(p)中所有尚未被处理的对象q\; do\\ &(12) \qquad \qquad \quad 检查其Eps邻域E(p),若E(p)包含至少MinPts个对象,则将E(p) 中未归入任何一个簇的对象加入C \end{aligned} (1)首先将数据集D(2)forDpdo(3)ifpthen(4)continue;(5)else(6)pEpsE(p);(7)ifE(p)MinPtsthen(8)p(9)else(10)pC(11)forE(p)qdo(12)EpsE(p)E(p)MinPtsE(p)C

算法优劣

优势:

  • 不需要指定簇个数
  • 擅长找到离群点(检测任务)
  • 可以发现任意形状的簇
  • 只需两个参数

劣势:

  • 参数难以选择(参数对结果的影响非常大)
  • 高维数据有些困难(可以做降维)

上一篇文章地址:机器学习入门之支持向量机SVM
下一篇文章地址:机器学习入门之PCA与ICA

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值