《机器学习实战》之二分K-均值聚类算法的python实现

《机器学习实战》之二分K-均值聚类算法的python实现

上面博文介绍了K-均值聚类算法及其用python实现,上篇博文中的两张截图,我们可以看到,由于K-均值聚类算法中由于初始质心的选取,会造成聚类的局部最优,并不是全局最优,因此,会造成聚类的效果并不理想,为克服K-均值算法收敛于局部最小值的问题,就有了二分K-均值算法。

二分K-均值聚类算法

二分K均值算法是基本K均值算法的直接扩充,其基本思想是:为了得到K个簇,首先将所有点的集合分裂成两个簇,然后从这些簇中选取一个继续分裂,迭代直到产生K个簇;二分K均值的关键是如何选择待分裂簇,选择策略主要有两种,一是选择包含矢量个数最多的簇进行分裂,二是选择具有最大SSE(误差的平方和)的簇分裂。

二分k均值算法的伪代码如下:

将所有数据点看成一个簇
当簇数目小于k时
            对每一个簇
                    计算总误差
                    在给定的簇上面进行k-均值聚类(k=2)
                    计算将该簇一分为二后的总误差
            选择使得误差最小的那个簇进行划分操作

另一种做法是选择SSE最大的簇进行划分,直到簇数目达到用户指定的数目为止。

python实现如下

环境:python 3.4 使用的库:numpy、matplotlib

biKmeans.py:此文件中的kmeans算法与上篇博文中的代码一致,在上一篇博文中注释写的比较详细,这里就没有在详细注释,若需要看注释,可以看上一篇博文


# 二分k均值算法的伪代码如下:
#***************************************************************
#将所有数据点看成一个簇
#
#当簇数目小于k时
#
#       对每一个簇
#
#              计算总误差
#
#              在给定的簇上面进行k-均值聚类(k=2)
#
#              计算将该簇一分为二后的总误差
#
#       选择使得误差最小的那个簇进行划分操作
#
#*************************************************************** 

from numpy import *  
import time  
import matplotlib.pyplot as plt  


# calculate Euclidean distance  
def euclDistance(vector1, vector2):  
    return sqrt(sum(power(vector2 - vector1, 2)))  

# init centroids with random samples  
def initCentroids(dataSet, k):  
    numSamples, dim = dataSet.shape  
    centroids = zeros((k, dim))  
    for i in range(k):  
        index = int(random.uniform(0, numSamples)) 
        print(index)
        centroids[i, :] = dataSet[index, :]  
    return centroids  

# k-means cluster  
def kmeans(dataSet, k):  
    numSamples = dataSet.shape[0]  
    # first column stores which cluster this sample belongs to,  
    # second column stores the error between this sample and its centroid  
    clusterAssment = mat(zeros((numSamples, 2)))  
    clusterChanged = True  

    ## step 1: init centroids  
    centroids = initCentroids(dataSet, k)  

    while<
  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: K-Means聚类算法是一种用于对数据进行分组的机器学习算法,它可以帮助我们根据数据特征将相似的数据分为几类。Python实现K-Means聚类算法的代码大致如下:import numpy as np from sklearn.cluster import KMeans# 加载数据 data = np.loadtxt("data.txt", delimiter=",")# 创建KMeans模型 kmeans = KMeans(n_clusters=3)# 训练模型 kmeans.fit(data)# 聚类中心 centers = kmeans.cluster_centers_# 结果标签 labels = kmeans.labels_ ### 回答2: K-Means是一种常用的聚类算法,用于将数据集中的元素划分为K个不同的组或类。以下是K-Means聚类算法Python实现代码示例: ```python import numpy as np class KMeans: def __init__(self, k=2, max_iters=100): self.k = k self.max_iters = max_iters def fit(self, X): self.centroids = self._initialize_centroids(X) for _ in range(self.max_iters): clusters = [[] for _ in range(self.k)] # Assign each data point to the nearest centroid for xi in X: distances = [np.linalg.norm(xi - centroid) for centroid in self.centroids] cluster_index = np.argmin(distances) clusters[cluster_index].append(xi) # Update centroids prev_centroids = np.copy(self.centroids) for i in range(self.k): self.centroids[i] = np.mean(clusters[i], axis=0) # Break loop if centroids do not change if np.allclose(prev_centroids, self.centroids): break def predict(self, X): return [np.argmin([np.linalg.norm(xi - centroid) for centroid in self.centroids]) for xi in X] def _initialize_centroids(self, X): indices = np.random.choice(range(len(X)), size=self.k, replace=False) return X[indices] ``` 以上代码实现了一个简单的K-Means聚类算法。`fit`方法用于训练模型,`predict`方法用于进行预测。在训练过程中,首先随机选择K个初始质心,然后迭代更新每个样本的簇分配,直到达到最大迭代次数或质心不再发生变化。最后,预测时根据最近的质心将新的样本点分配到对应的簇中。 请注意,这只是一个简单的K-Means实现,它可能不具有较强的鲁棒性和效率。实际应用中,可以考虑使用成熟的机器学习库中的K-Means实现,如Scikit-learn等。 ### 回答3: K-Means聚类算法是一种常用的无监督学习算法,用于将数据集划分为K个不同的簇。下面是Python实现K-Means聚类算法的代码示例: ```python import numpy as np def kmeans(data, K, max_iters=100): # 随机初始化K个中心点 centers = data[np.random.choice(range(len(data)), K, replace=False)] for _ in range(max_iters): # 计算每个样本与中心点的欧式距离 dists = np.linalg.norm(data[:,:,np.newaxis] - centers.T[np.newaxis,:,:], axis=1) # 根据距离将样本分配到最近的簇 labels = np.argmin(dists, axis=1) # 更新每个簇的中心点为该簇所有样本的平均值 centers_new = np.array([data[labels == k].mean(axis=0) for k in range(K)]) # 判断中心点是否稳定不变,若不变则停止迭代 if np.all(centers == centers_new): break centers = centers_new return labels, centers # 测试数据 data = np.array([[1, 2], [1, 4], [1, 0], [4, 2], [4, 4], [4, 0]]) # 调用K-Means算法进行聚类 labels, centers = kmeans(data, K=2) # 打印聚类结果 print("聚类结果:", labels) print("聚类中心点:", centers) ``` 上述代码实现了K-Means聚类算法,其中`data`表示输入的数据集,`K`表示要划分的簇的数量。`kmeans`函数使用随机初始化的中心点,迭代计算样本与中心点的距离,并将样本分配到最近的簇。然后更新每个簇的中心点为该簇所有样本的平均值,直到中心点不再改变或达到最大迭代次数为止。最后返回每个样本所属的簇以及最终的中心点。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值