(1)选取m个质心;
(2)计算任意点与m个质心的相似度(或者是距离),最短或者误差最小的便归该类。
质心的选取:
(1)选择批次尽量远的点。
首先随机选择一个点作为第一个初始类簇中心点,然后选择距离该点最远的那个点作为第二个初始类簇中心点,然后再选择距离前两个点的最近距离最大的点作为第三个初始类簇的中心点,以此类推,直至选出K个初始类簇中心点。
(2)层次聚类算法或者canopy算法
首先定义两个距离T1和T2,T1>T2.从初始的点的集合S中随机移除一个点P,然后对于还在S中的每个点I,计算该点I与点P的距离,如果距离小于T1,则将点I加入到点P所代表的Canopy中,如果距离小于T2,则将点I从集合S中移除,并将点I加入到点P所代表的Canopy中。迭代完一次之后,重新从集合S中随机选择一个点作为新的点P,然后重复执行以上步骤。
Canopy算法执行完毕后会得到很多Canopy,可以认为每个Canopy都是一个Cluster,与KMeans等硬划分算法不同,Canopy的聚类结果中每个点有可能属于多个Canopy。我们可以选择距离每个Canopy的中心点最近的那个数据点,或者直接选择每个Canopy的中心点作为KMeans的初始K个类簇中心点。
层次聚类算法:
single-linkage聚类算法过程如下:
1. 初始时共有N个类,每个类由一个对象类成。令顺序号m = 0, L(m) = 0.
2. 在D中寻找最小距离d[(r),(s)] = min d[(i),(j)].
3. 将两个类(r)和(s)合并成一个新类(r,s);令m = m +1, L(m) = d[(r),(s)]
4. 更新距离矩阵D: 将表示类(r)和类(s)的行列删除,同时加入表示新类(r,s)的行列;同时定义新类(r,s)与各旧类(k)的距离为 d[(k), (r,s)] = min d[(k),(r)], d[(k),(s)]
5. 反复步骤2-4,直到所有对象合并成一个类为止。