聚类评价CH指标sklearn.metrics.calinski_harabasz_score

本文介绍了在海量数据聚类中,如何利用Calinski-Harbasz Score(CH指标)辅助确定K值。CH指标通过比较类间和类内方差来评估聚类效果,值越大表示效果越好。然而,它倾向于给出较少类别的较高分数,需要寻找局部最优的K值。案例展示了MiniBatchKMeans和SpectralClustering的CH指标应用,并强调了参数调优的重要性。通过示例代码,演示了如何在不同K值和高斯核参数下寻找最佳聚类结果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在做海量数据聚类分析(MiniBatch Kmeans)的时候,常常因为数据量太大画不出 dendrogram,没办法用 Elbow Method 确定 K 值。这时需要其他 metrics 辅助确定 K 值。在做聚类之前,一定要先做去重啊!

Calinski-Harbasz Score (CH指标)

Caliński, Tadeusz, and Jerzy Harabasz. “A dendrite method for cluster analysis.” Communications in Statistics-theory and Methods 3.1 (1974): 1-27.

  • Calinski-Harbasz Score 是通过评估 类之间方差类内方差 来计算得分,值越大效果越好

任务描述 本关的实验任务为: 使用sklearn.cluster模块的K-means函数进行聚类; 使用sklearn.metrics模块的silhouette_score计算轮廓系数; 根据轮廓系数选择参数K; 使用正确选择的参数进行模型训练。 本关任务 根据下面的文字提示,在右侧编辑器补充代码,在已有的代码框架下实现函数功能,完成实验。 (1)首先,导入sklearn.cluster模块中的K-means函数; from sklearn.cluster import KMeans (2)根据轮廓系数进行参数选择; #使用matplotlib绘图 import matplotlib.pyplot as plt plt.rcParams['font.sans-serif'] = ['SimHei'] #用来正常显示中文标签 plt.rcParams['axes.unicode_minus'] = False #用来正常显示负号 #导入sklearn.metrics模块中的silhouette_score函数 from sklearn.metrics import silhouette_score Scores = [] # 存放轮廓系数 #********** Begin **********# for k in range(2,9): #计算轮廓系数 #********** End **********# # 画图 X = range(2,9) plt.xlabel('k') plt.ylabel('轮廓系数') plt.plot(X,Scores,'o-') plt.show() 如果填写正确,运行效果应该如下图所示: (3)根据轮廓系数选择参数K,根据上面的运行结果选择聚类的次数,除此以外将使用进程的数量设置为4, 最大迭代次数设置为500; #n_clusters:要分成的簇数也是要生成的质心数 #n_jobs: 使用进程的数量,与电脑的CPU有关 #max_iter:每次迭代的最大次数 #********** Begin **********# model1= model1.fit(data_zs) #训练模型 #********** End **********# 测试说明 平台会对你编写的代码进行测试,通过正确的输出处理之后的数据进行验证,所以请勿修改函数返回内容。 开始你的任务吧,祝你成功!
最新发布
03-31
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值