机器学习 - 常见聚类算法

在这里插入图片描述


1. 无监督学习

对于那种没有label的数据,我们能做什么?

  • 聚类
  • 降维 (Dimensionality reduction)
  • 异常检测 (Outlier detection)

这篇博客介绍一下无监督学习中的聚类。

2. 关于聚类

  • 我们的目标:
  • 大的类内相似度
  • 小的类间相似度
  • 软聚类 vs 硬聚类
  • 软:一个样本可以被分为多类
  • 硬:一个样本只能被分为一类

3.聚类算法

3.1 K-Means聚类 – partitioning method

K-Means(k-平均或k-均值)可以称的上是知名度最高的一种聚类算法,代码非常容易理解和实现。

【算法1】K-means

  1. 随机初始化k个聚类质心点
  2. 迭代 t 步(或迭代到质心位置不再发生太大变化)
    2.1 计算每个数据点到质心的距离来进行分类,它跟哪个聚类的质心更近,它就被分类到该聚类。
    2.2 再重新计算每一聚类中所有向量的平均值,并确定出新的质心。

t为迭代次数,K为簇的数目,m为记录数,n为维数。

  • 时间复杂度 O ( t K m n ) O(tKmn) O(tKmn)
  • 空间复杂度 O ( ( m + K ) n ) O((m+K)n) O((m+K)n)

K-means的优点:

  • 当数据的分布有明显的簇的划分时,K-means表现很好。(works well when the clusters are compact clouds that are well-separated from each other)
  • 可以用来解决凸数据的聚类。(discover clusters with convex shapes or clusters with quite different size)

K-means的缺点:

  • k值的选取不太确定。
  • 一开始质心点的选取是随机的,不同的初始质心选择,会导致不同的结果。所以,K-means 一定能收敛,但不一定是最优解
  • 对噪声和outlier非常敏感

K-Medians是与K-Means相关的另一种聚类算法,不同之处在于它使用簇的中值向量来重新计算质心点。和K-means不同,K-中值算法的聚类中心点一定是一个真实存在的点。该方法对异常值不敏感(因为使用中值),但在较大数据集上运行时速度会慢很多,因为每次计算中值向量,我们都要重新排序。

3.2 层次聚类 – hierarchical method

层次聚类实际上可以被分为两类:自上而下自下而上。其中自下而上算法(Bottom-up algorithms)首先会将每个数据点视为单个聚类,然后连续合并(或聚合)成对的聚类,直到所有聚类合并成包含所有数据点的单个聚类。它也因此会被称为hierarchical agglomerative clustering。该算法的聚类可以被表示为一幅树状图,树根是最后收纳所有数据点的单个聚类,而树叶则是只包含一个样本的聚类。
​​

【算法2】凝聚型层次聚类

  1. 把每个数据点看作是一个聚类。
  2. 迭代,直到只有一个聚类簇:
    2.1 找到距离最小的两个聚类簇 c i , c j c_i,c_j ci,cj
    2.2 将 c i , c j c_i,c_j ci,cj合并为一个簇

在这里插入图片描述

三种衡量聚类簇相似性的标准:

  • single linkage: 两个聚类簇中最相似的两个点的相似度
  • complete linkage: 两个聚类簇中最不相似的两个点的相似度
  • average linkage: 两个聚类簇中平均两两相似度

层次聚类不要求我们指定聚类的数量,由于这是一个构建树的过程,我们甚至可以选择那种聚类看起来更合适。它具有 O ( n 3 ) O(n^3) O(n3)的时间复杂度。

3.3 DBSCAN – density-based method
3.3.1 简介

【定义1】DBSCAN

DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的聚类方法)是一种基于密度的空间聚类算法。 该算法将具有足够密度的区域划分为簇,并在具有噪声的空间数据库中发现任意形状的簇。
它将簇定义为密度相连的点的最大集合。通过将紧密相连的样本划为一类,这样就得到了一个聚类类别。通过将所有各组紧密相连的样本划为各个不同的类别,则我们就得到了最终的所有聚类类别结果。

我们知道k-means聚类算法只能处理凸(球形)的簇,也就是一个聚成实心的团 (cloud), 这是因为算法本身计算平均距离的局限。但往往现实中还会有各种形状,比如下面这张图,传统的聚类算法显然无法解决。于是就思考,样本密度大的成一类呗。这就是DBSCAN聚类算法。

在这里插入图片描述

3.3.2 重要概念

假设我的样本集是 D = ( x 1 , x 2 , . . . , x m ) D=(x_1,x_2,...,x_m)

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值