回归与聚类算法————无监督学习-K-means算法

目录

1、 无监督学习

2、 K-means原理

3,API

4、Kmeans性能评估指标

4.1 轮廓系数

4.2 轮廓系数API

5, 总结


1、 无监督学习

没有目标值的,从无标签的数据开始学习的

  • 聚类
    • K-means(K均值聚类)
  • 降维
    • PCA

2、 K-means原理

  1. 随机设置K个特征空间内的点作为初始的聚类中心
  2. 对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类中心点作为标记类别
  3. 接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平均值)
  4. 如果计算得出的新中心点与原中心点一样,那么结束,否则重新进行第二步过程

3,API

from sklearn.cluster import KMeans

  • KMeans(n_clusters=8,init=‘k-means++’)
    • n_clusters:开始的聚类中心数量
    • init:初始化方法,默认为  'k-means ++’
    • labels_:默认标记的类型,可以和真实值比较(不是值比较)

4、Kmeans性能评估指标

4.1 轮廓系数

注:对于每个点i 为已聚类数据中的样本 ,bi 为i 到其它族群的所有样本的距离最小值,ai 为i 到本身族群的距离平均值。最终计算出所有的样本点的轮廓系数平均值 

如果b_i>>a_i:趋近于1效果越好, b_i<<a_i:趋近于-1,效果不好。轮廓系数的值是介于 [-1,1] ,越趋近于1代表内聚度和分离度都相对较优。

4.2 轮廓系数API

from  sklearn.metrics import silhouette_score
  • sklearn.metrics.silhouette_score(X, labels)
    • X:特征值
    • labels:被聚类标记的目标值  

5, 总结

  • 特点分析:采用迭代式算法,直观易懂并且非常实用
  • 缺点:容易收敛到局部最优解(通过多次聚类解决)

注意:聚类一般做在分类之前

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值