机器学习(12)--K-means

本文介绍了非监督学习中的K-means聚类算法,包括其工作原理、步骤、性能评估指标如轮廓系数和WCSS。K-means通过迭代寻找数据的聚类中心,但可能会陷入局部最优。确定最佳K值的方法包括轮廓系数和肘部法则。该算法适用于各类数据集的分类任务,但需要预先设定簇的数量。
摘要由CSDN通过智能技术生成

非监督学习的特点

“物以类聚,人以群分”

方法——K-means 

【不知道K就通过不断计算轮廓系数,确定最优的k】

 步骤:

1、随机设置K个特征空间内的点作为初始的聚类中心

2、对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类 中心点作为标记类别 3、接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平 均值)

4、如果计算得出的新中心点与原中心点一样,那么结束,否则重新进行 第二步过程

语法:

sklearn.cluster.KMeans

sklearn.cluster.KMeans(n_clusters=8,init=‘k-means++’)

             k-means聚类

             n_clusters:开始的聚类中心数量

             init:初始化方法,默认为'k-means ++’

             labels_:默认标记的类型,可以和真实值比较(不是值比较)

性能评估指标

1. 轮廓系数

如果sc_i 小于0,说明a_i 的平均距离大于最近的其他簇。

聚类效果不好 如果sc_i 越大,说明a_i 的平均距离小于最近的其他簇。

聚类效果好 轮廓系数的值是介于 [-1,1] ,越趋近于1代表内聚度和分离度都相对较优

【一般轮廓系数在0以上就不错】 

(1)轮廓系数越接近 1: 此时a接近0,样本与自己所在的簇中的样本很相似,并且与其他簇中的样本不相似。
(2)轮廓系数为 0 时: 此时a=b,两个簇中的样本相似度一致,两个簇本应该是一个簇。
(3)轮廓系数为负时:样本点与簇外的样本更相似。
如果一个簇中的大多数样本具有比较高的轮廓系数,则簇会有较高的总轮廓系数,则整个数据集的平均轮廓系数越高,则聚类是合适的。
如果许多样本点具有低轮廓系数甚至负值,则聚类是不合适的,聚类的超参数 K 可能设定得太大或者太小。
 

2. 簇内平方和(Within-Cluster Sum of Squares, WCSS)

WCSS随着簇的增加而减小,所以可以用于相同数量的簇的情况下的比较,WCSS指的是对所有簇计算其所属数据点与簇的中心之间距离的平方和,并将它们相加得到的值,这个值越小,说明聚类效果越好。簇的重心与簇所属的数据点之间的距离越小,即数据点越在靠近簇的重心的地方聚集,WCSS越小。

K值的确定

除了常用的网格搜索确定超参数K,我们还可以使用Elbow方法【不常用】

随着簇的增加,WCSS会变小,但有时WCSS的变小幅度会从簇的数量为某个值时开始放缓

现实中,往往不会出现明显的‘肘部’,或者说减缓的拐点。

语法:【模型评估api一般都在metrics】

 sklearn.metrics.silhouette_score

 sklearn.metrics.silhouette_score(X, labels)

             计算所有样本的平均轮廓系数

             X:特征值

             labels:被聚类标记的目标值

特点分析:     

采用迭代式算法,直观易懂并且非常实用

缺点:

容易收敛到局部最优解(多次聚类)              

需要预先设定簇的数量(k-means++解决)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值