机器学习(9) -- 聚类

9.1 聚类任务

聚类试图将数据集中的样本划分为若干个通常不想交的子集,每个子集称为一个簇。

9.2 性能度量

聚类性能度量大致两类:外部指标、内部指标

外部指标:将聚类结果与某个“参考模型”进行比较

内部指标:考察聚类结果 而不利用任何参考模型

 

外部指标:

聚类给出的簇划分:

参考模型给出的簇划分:

相应的簇标记向量为λ,λ*

SS包含了在C中隶属于相同簇且在C*中也隶属于相同簇的样本对;a+b+c+d=m(m-1)/2

于是导出下面常用的聚类性能度量外部指标,值在[0,1],越大越好

Jaccard系数,JC:

FM指数,FMI:

Rand指数,RI:

 

内部指标:

对于聚类结果簇划分

于是导出下面常用的聚类性能度量内部指标,DBI越小越好,DI越大越好

DB指数,DBI:

Dunn指数,DI:

9.3 距离计算

距离度量函数 dist(·,·),需满足:

非负性 :

同一性:,当且仅当

对称性:

直递性:

 

给定样本

闵可夫斯基距离:

p=2时是欧氏距离

p=1时是曼哈顿距离

 

闵可夫斯基距离可用于计算连续属性和有序属性

无序属性用VDM,属性u上两个离散值a,b之间的VDM距离为

表示第i个样本簇中在属性u上取值为a的样本数

于是,假设有 个有序属性, 个无序属性

加权距离

9.4 原型聚类

亦称“基于原型的聚类”,此类算法假设聚类结构能通过一组原型刻画。“原型”是指样本空间中具有代表性的点

一般,先对原型初始化,然后对原型进行迭代更新求解

K-means

针对聚类所得簇划分 最小化平方误差:

学习向量量化(LVQ)

和K均值类似,都是试图找出一组原型向量来刻画聚类结构,但是假设数据样本带有类别标记,学习过程利用样本的这些监督信息来辅助聚类。

关键是如何更新原型向量,对样本Xj,若最近的原型向量Pi, 与Xj的类别标记相同,则令Pi向Xj的方向靠拢。

学得一组原型向量{P1,P2,……Pq}后,即可实现对样本空间X的簇划分。对任意样本x,它将被划入到与其距离最近的原型向量所代表的簇中;换言之,每个原型向量Pi定义了与之相关的一个区域Ri,该区域中每个样本与P 的距离不大于它与其他原型向量Pi '的距离。

高斯混合聚类

采用概率模型来表达聚类原型

多元高斯分布定义:

记为:

高斯混合分布:

假设样本生成过程由高斯混合分布给出:首先,根据定义的先验分布选择高斯混合成分,其中 为选择第i个成分的概率;然后,根据被选择的混合成分的概率密度函数进行采样,从而生成相应的样本

极大似然估计:

 

也就是,假定每个簇都服从高斯分布,每个簇按各自的分布生成样本,所有样本独立,所有样本放在一起对应的是高斯混合分布

 

9.5 密度聚类

亦称“基于密度的聚类”,此类算法假设聚类结构能通过样本分布的紧密程度确定。通常,密度聚类算法从样本密度的角度来考察样本之间的可连续性,并基于可连接样本不断扩展聚类簇以获得最终的聚类结果。

 

DBSCAN,基于一组“邻域”参数刻画样本分布的紧密程度。

ε-邻域:

核心对象:的ε-邻域内至少包含MinPts个样本,则是一个核心对象

密度直达:位于的ε-邻域中且是核心对象,则密度直达

密度可达:对于,存在序列==密度直达,则密度可达

密度相连:对于,若存在,使均由密度可达,则称密度相连

 

DBSCAN将簇定义为:由密度可达关系导出的最大的密度相连样本集合。

算法先根据给定的邻域参数(ε,MinPts)找出所有核心对象,再以任一核心对象为出发点,找出由其密度可达样本生成聚类簇,知道所有核心对象都被访问过为止

9.6 层次聚类

系统聚类,“自顶向下”,“自底向上”

 

其他:K均值算法可看作高斯混合聚类在混合成分方差相等、且每个样本仅指派给一个混合成分时的特例

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值