目录
1、 无监督学习
没有目标值的,从无标签的数据开始学习的
- 聚类
- K-means(K均值聚类)
- 降维
- PCA
2、 K-means原理
- 随机设置K个特征空间内的点作为初始的聚类中心
- 对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类中心点作为标记类别
- 接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平均值)
- 如果计算得出的新中心点与原中心点一样,那么结束,否则重新进行第二步过程
3,API
from sklearn.cluster import KMeans
- KMeans(n_clusters=8,init=‘k-means++’)
- n_clusters:开始的聚类中心数量
- init:初始化方法,默认为 'k-means ++’
- labels_:默认标记的类型,可以和真实值比较(不是值比较)
4、Kmeans性能评估指标
4.1 轮廓系数
注:对于每个点i 为已聚类数据中的样本 ,bi 为i 到其它族群的所有样本的距离最小值,ai 为i 到本身族群的距离平均值。最终计算出所有的样本点的轮廓系数平均值
如果b_i>>a_i:趋近于1效果越好, b_i<<a_i:趋近于-1,效果不好。轮廓系数的值是介于 [-1,1] ,越趋近于1代表内聚度和分离度都相对较优。
4.2 轮廓系数API
from sklearn.metrics import silhouette_score
- sklearn.metrics.silhouette_score(X, labels)
- X:特征值
- labels:被聚类标记的目标值
5, 总结
- 特点分析:采用迭代式算法,直观易懂并且非常实用
- 缺点:容易收敛到局部最优解(通过多次聚类解决)
注意:聚类一般做在分类之前