Kmeans算法初探

本文深入探讨了KMeans算法的原理,从牧师与村民的故事出发解释了算法的迭代过程。文章还讨论了KMeans的局限性,包括对初始中心点的敏感性、异常值的影响以及适用场景。优化策略包括手肘法确定K值、Gap统计量和Monte Carlo方法。此外,提到了KMeans++和KMeans II改进算法,以及预处理和ISODATA方法在处理复杂数据集时的作用。
摘要由CSDN通过智能技术生成

KMEANS INFO

四个牧师去郊区布道,一开始牧师们随意选了几个布道点,并且把这几个布道点的情况公告给了郊区所有的村民,于是每个村民到离自己家最近的布道点去听课。听课之后,大家觉得距离太远了,于是每个牧师统计了一下自己的课上所有的村民的地址,搬到了所有地址的中心地带,并且在海报上更新了自己的布道点的位置。牧师每一次移动不可能离所有人都更近,有的人发现A牧师移动以后自己还不如去B牧师处听课更近,于是每个村民又去了离自己最近的布道点……就这样,牧师每个礼拜更新自己的位置,村民根据自己的情况选择布道点,最终稳定了下来。

  • 村民牧师解释
    • 四个牧师: K(种类 ML中叫类聚中心)
    • 村民: K种样本集合
    • 牧师更改布道点: 更改类聚中心位置
    • 村民根据自己情况选择布道点: 迭代已达到稳定

KMEANS DETAILS

  • 1.初始化K个样本作为初试类聚中心a = a1、a2、a3、a4、a5
  • 2.针对每个样本中的xi计算到每个样本类聚中心的距离(欧氏距离)最小值,分到对应的类聚中心的类中

d = ∑ i = 0 N ( x 1 i − x 2 i ) 2 d=\sqrt{\sum_{i=0}^N(x_{1i}-x_{2i})^2} d=i=0N(x1ix2i)2

  • 3.针对每个类别ai,重新计算它的类聚中心

a j = 1 ∣ C i ∣ ∑ x ( x ϵ C i ) a_j=\frac1{|C_i|}\sum{x}(x\epsilon{C_i}) aj=

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值