k均值的损失函数_斯坦福大学机器学习笔记——聚类(k-均值聚类算法、损失函数、初始化、聚类数目的选择)...

本文介绍了K-均值聚类算法的原理和步骤,包括选择随机点作为初始聚类中心,通过迭代更新聚类中心和分配样本。K-均值的目标是最小化每个数据点到其所属聚类中心的距离平方和,即代价函数。通过多次运行和随机初始化避免局部最优。同时,文章提到了确定聚类数量的方法,如肘部法则,并提供了MATLAB实现代码示例。
摘要由CSDN通过智能技术生成

上面的博客的算法都是有监督学习的算法,即对于每个数据我们都有该数据对应的标签,数据集的形式如下:

YfMVry.png

而今天我们学习的算法是一种无监督学习的算法——聚类,该算法中的每个数据没有标签,数据集的形式如下:

a2YBjm.png

K-均值聚类

k-均值聚类是一种最常见的聚类算法,该算法对没有标签的数据集进行训练,然后将数据集聚类成不同的类别。

k-均值聚类是一种迭代算法,该方法的过程如下:

1. 选择K个随机点,作为聚类中心;

2. 对于数据集中的每个数据计算与K个聚类中心的距离,将其与距离最近的聚类中心关联起来,将属于同一个聚类中心的样本聚成一类(也叫作簇);

3. 计算每一个簇所有样本的均值,将聚类中心移动到平均值的位置。

重复上述步骤2-3,直到聚类中心不再发生变化为止。

该算法的伪代码如下:

AnYV3u.png

其中,c(i)代表x(i)被分配的聚类的索引值,c(i)∈{1,2,...,K},μk是类别为k的聚类中心。

该算法主要有两个关键步骤:第一步为簇分类,即对于每一个样本i,计算其应该属于的类别,计算的公式为:

mink||xi−μk||2

第二步为更新聚类中心(移动聚类中心),即:对于每一个类k,重新计算该类的质心。

在进行k均值的时候偶尔会出现一种问题,那就是如果没有点分配给它的聚类中心怎么办?也就是说,你初始化的聚类中心,在进行簇分类之后,可能会出现该簇一个样本也没有。在这种情况下,我们一般移除那个聚类中心,这样就会得到K-1个簇,如果必须分成K个簇,则要重新随机找一个聚类中心,但是一般情况下我们都是将该聚类中心直接去掉(这种问题出现的情况很少)。

k-均值聚类的目标函数:

了解k-均值聚类代价函数有两个目的:

1. 能够帮助我们调试学习算法,确保k均值聚类算法是在正确运行中;

2. 能够运用代价函数帮助k-均值找到更好的簇,并且避免局部最优解(在下文中会讲述到)。

k-均值最小化

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值