无监督学习——距离度量

距离度量(distance measure)函数dist(∙,∙)满足的一般性质:

  1. 非负性:dist(xi,xj)≥0;
  2. 同一性:dist(xi,xj)=0,当且仅当xi=xj
  3. 对称性:dist(xi,xj)=dist(xj,xi),  
  4. 直递性:dist(xi,xj)≤dist(xi,xk)+dist(xk,xj), .

常用的距离度量方法是闵可夫斯基距离(Minkowski distance)距离度量法,一般表示为:

  (1)

式中p≥0, p=2即为欧式距离(Euclidean distance),p=1时即为曼哈顿距离(Manhattan distance)。通常情况下,样本属性可分为“有序属性”(ordinal attribute)和“无序属性”(non-ordinal attribute),“有序属性”的属性值之间的距离具有一定的连续属性,能够直接在属性值上计算距离,因此,从一定意义上来讲,闵可夫斯基距离通常用于有序属性。而无序属性可用VDM(Value Difference Metric)[Stanfill and Waltz, 1986],其表示为:

(2)

式中,表示属性在上取值为a的样本数,表示在第i个样本簇中在属性u上取值为a的样本数,k为样本簇数目,ab分别表示两种不同的离散值。

当样本中不同属性的重要性不同时,可以使用“加权距离”(weight distance),以加权“闵可夫斯基距离”(Minkowski distance)为例:

  (3)

其中权重 (i=1,2,…,n),

 

参考自周志华《机器学习》

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我知道了,下面是我的回答: 聚类算法是一种无监督学习算法,它可以将数据集中的数据按照某种规则进行分组,使得同一组内的数据相似度较高,不同组之间的数据相似度较低。聚类算法可以帮助我们对数据进行分类、分析和理解,同时也可以为其他机器学习任务提供数据预处理和特征提取的支持。 聚类算法的基本流程包括:确定聚类算法的目标函数、选择相似度度量方法、选择聚类算法、确定聚类的数量、进行聚类操作以及评估聚类效果。常见的聚类算法包括K-Means算法、层次聚类算法、密度聚类算法等。 K-Means算法是一种基于距离的聚类算法,它的基本思想是将数据集中的数据划分为K个簇,使得同一簇内的数据相似度较高,不同簇之间的数据相似度较低。K-Means算法的优点是计算复杂度较低,容易实现,但是需要预先指定簇的数量和初始聚类中心。 层次聚类算法是一种基于相似度的聚类算法,它的基本思想是不断合并数据集中相似度最高的数据,直到所有数据都被合并为一个簇或达到预先设定的簇的数量。层次聚类算法的优点是不需要预先指定簇的数量和初始聚类中心,但是计算复杂度较高。 密度聚类算法是一种基于密度的聚类算法,它的基本思想是将数据集中的数据划分为若干个密度相连的簇,不同簇之间的密度差距较大。密度聚类算法的优点是可以发现任意形状的簇,但是对于不同密度的簇分割效果不佳。 以上是聚类算法的基础知识,希望能对您有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值