Andrew Ng Machine Learning 专题【K-Means】

本文是Andrew Ng的Coursera机器学习课程笔记,详细介绍了无监督学习中的K-Means算法。K-Means通过迭代找到样本的最佳分类,优化目标是最小化聚类误差平方和。文章还讨论了初始化方法、如何选择聚类数量以及可能的局部最优问题。
摘要由CSDN通过智能技术生成

此文是斯坦福大学,机器学习界 superstar — Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记。力求简洁,仅代表本人观点,不足之处希望大家探讨。
课程网址:https://www.coursera.org/learn/machine-learning/home/welcome

Week 8 后半部分PCA:http://blog.csdn.net/ironyoung/article/details/49154327

Week 8:Unsupervised Learning & Dimensionality Reduction

  1. Unsupervised Learning

    1. 之前课程中说到的学习,都是监督学习,即有一个label,明确告诉你这个样本,属于哪个类型,或者导致的值是多少。但是,如果我碰到没有label,或者我也不知道label是怎样的情况,但是我还是想要分成若干类。这样的问题,就是一种无监督问题。
    2. 聚类(clustering)
      聚类是一种典型的无监督学习例子,但是聚类不等同于无监督学习,密度估计同样是一个典型的无监督学习例子。回到聚类,例如有下图:
      Drawing
      每种样本(蓝色圆圈)都没有label指定类别,但是人眼一看就知道分成两类比较合适。如何让机器也知道如何分类呢?这就是聚类问题。
  2. K-Means Algorithm

    1. K-Means 算法是解决无监督学习的有效算法之一。K(大写)表示将样本分为K个类型。算法具体的过程通俗易懂,如下图所示:
      这里写图片描述
      这里写图片描述
      配合上图,再作一些简单的解释:

      1. 随机找到 K 个点,作为聚类中心(centroids) μ 1 ,μ 2 ,...,μ K  
      2. 进行聚类的主要两个步骤:
        • 簇分配:遍历每个样本点 x 1 ,x 2 ,...,x 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值