吴恩达机器学习—聚类(10)

这篇博客介绍了无监督学习中的聚类概念,特别是K-Means算法的原理和实现步骤。内容涵盖K-Means的优化目标、随机初始化、选择聚类数的方法,如肘部法则,以及二分K-Means算法以避免局部最优解。
摘要由CSDN通过智能技术生成

1. 无监督学习

在机器学习中,无监督学习可以被简单理解为不为训练集提供对应的类别标识。
无监督学习(Unsupervised Learning)下的训练集:(x(1)),(x(2)),(x(3))

2. 聚类

在监督学习中,把对样本进行分类的过程称之为分类(Classification),而在无监督学习中,将物体被划分到不同集合的过程称之为聚类(Clustering)。
在聚类中,把物体所在的集合称之为簇(cluster)。

3. K-Means 算法及实现

K: 描述了簇的数量,也就是应当聚合成的几何数。
Means:均值求解,是该算法的核心。
实现步骤:
1)根据设定的聚类数 K ,随机地选择 K 个聚类中心(Cluster Centroid)
在这里插入图片描述
2)评估各个样本到聚类中心的距离,如果样本距离第 i 个聚类中心更近,则认为其属于第 i 簇
在这里插入图片描述
3)计算每个簇中样本的平均(Mean)位置,将聚类中心移动至该位置
在这里插入图片描述
重复以上步骤直至各个聚类中心的位置不再发生改变。

4. 优化目标

和其他机器学习算法一样,K-Means 也要评估并且最小化聚类代价
代价函数J,也被称为失真代价函数: J ( c ( 1 ) , c ( 2 ) , . . . , c ( m ) ; μ 1 , μ 2 , . . . , μ k ) = 1 m ∑ i = 1 m ∣ ∣ x ( i ) − μ c ( i ) ∣ ∣ 2 J(c_{(1)},c_{(2)},...,c_{(m)};μ_1,μ_2,...,μ_k)=\frac{1}{m}\sum_{i=1}^m||x^{(i)}−μ_c^{(i)}||^2 J(c

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值