1.K-means聚类
K-means聚类的算法流程:
一、指定需要划分的簇
[cù]
的个数K值(类的个数);
二、随机地选择K个数据对象作为初始的聚类中心(不一定要是我们的样本点);
三、计算其余的各个数据对象到这K个初始聚类中心的距离,把数据对象划归到距离它最近那个中心所处在的簇类中;
四、调整新类并且重新计算出新类的中心;
五、循环步骤三和四,看中心是否收敛(不变),如果收敛或达到迭代次数则停止循环;
六、结束。
![](https://i-blog.csdnimg.cn/blog_migrate/bc0545c906ce3e1ab5e8b7234f50aab4.png)
优点:
(1)算法简单、快速。
(2)对处理大数据集,该算法是相对高效率的。
缺点:
(1)要求用户必须事先给出要生成的簇的数目
K
。
(
2
)对初值敏感。
(
3
)对于孤立点数据敏感。
K-means++
算法可解决以上标红的
两个缺点。
2.K-means++聚类
k-means++算法选择初始聚类中心的基本原则是:
初始的聚类中
心之间的相互距离要尽可能的远。
步骤如下:
步骤一:
随机选取一个样本作为第一个聚类中心;
步骤二:
计算每个样本与当前已有聚类中心的最短距离(即与最近一个聚类中心的距离),这个值越大,表示被选取作为聚类中心的概率较大;最后,用轮盘法(依据概率大小来进行抽选)选出下一个聚类中心;
步骤三:
重复步骤二,直到选出K个聚类中心。选出初始点后,就继续使用标准的K-means算出了。
3.系统聚类
系统聚类的合并算法通过计算两类数据点间的距离,对最为接近的两类数据点进行组合,并反复迭代这一过程,直到将所有数据点合成一类,并生成聚类谱系图。
![](https://i-blog.csdnimg.cn/blog_migrate/e9fb17f0f697c54bf3fb5cb3e527880f.png)
系统(层次)聚类的算法流程:
一、将每个对象看作一类,计算两两之间的最小距离;
二、将距离最小的两个类合并成一个新类;
三、重新计算新类与所有类之间的距离;
四、重复二三两步,直到所有类最后合并成一类;
五、结束。
4.DBSCAN算法
该算法利用基于密度的聚类的概念,即要求聚类空间中的一定区域内所包含对象(点或其他空间对象)的数目不小于某一给定阈值。该方法能在具有噪声的空间数据库中发现任意形状的簇,可将密度足够大的相邻区域连接,能有效处理异常数据。
![](https://i-blog.csdnimg.cn/blog_migrate/da353d619b603e5a584bbf80ceb541a8.png)
简而言之,谁和我挨的近,我就是谁兄弟;兄弟的兄弟,也是我的兄弟。
优点:
1. 基于密度定义,能处理任意形状和大小的簇;
2. 可在聚类的同时发现异常点;
3. 与K-means比较起来,不需要输入要划分的聚类个数。
缺点:
1. 对输入参数ε(半径)和Minpts(在规定半径内要求包含的点数)敏感,确定参数困难;
2. 由于DBSCAN算法中,变量ε和Minpts是全局唯一的,当聚类的密度不均匀时,聚类距离相差很大时,聚类质量差;
3. 当数据量大时,计算密度单元的计算复杂度大。
建议:
只有两个指标时,且做出散点图后发现数据表现出呈现特定形状
,这时候你再用DBSCAN
进行聚类。
其他情况下,全部使用系统聚类吧。
K-means
也可以用,不过用了的话论文上可写内容比较少。