from sklearn.cluster import kmeans_plusplus
from sklearn.datasets import make_blobs
import matplotlib.pyplot as plt
Generate sample data
n_samples = 4000
n_components = 4
X, y_true = make_blobs(
n_samples=n_samples, centers=n_components, cluster_std=0.60, random_state=0
)
X = X[:, ::-1]
Calculate seeds from kmeans++
centers_init, indices = kmeans_plusplus(X, n_clusters=4, random_state=0)
Plot init seeds along side sample data
plt.figure(1)
colors = [“#4EACC5”, “#FF9C34”, “#4E9A06”, “m”]
for k, col in enumerate(colors):
cluster_data = y_true == k
plt.scatter(X[cluster_data, 0], X[cluster_data, 1], c=col, marker=“.”, s=10)
plt.scatter(centers_init[:, 0], centers_init[:, 1], c=“b”, s=50)
plt.title(“K-Means++ Initialization”)
plt.xticks([])
plt.yticks([])
plt.show()
3 案例1
3.1 代码
-- coding: utf-8 --
import numpy as np
import pandas as pd
from sklearn.cluster import KMeans, MiniBatchKMeans
def main():
读取数据文件
file = pd.read_excel(‘K-Means.xlsx’, header=0) # 首行为标题行
file = file.dropna() # 删除含有缺失值的数据
print(file.dtypes) # 查看 df 各列的数据类型
print(file.shape) # 查看 df 的行数和列数
print(file.head())
数据准备
z_scaler = lambda x:(x-np.mean(x))/np.std(x) # 定义数据标准化函数
dfScaler = file[[‘D1’,‘D2’,‘D3’,‘D4’,‘D5’,‘D6’,‘D7’,‘D8’,‘D9’,‘D10’]].apply(z_scaler) # 数据归一化
dfData = pd.concat([file[[‘地区’]], dfScaler], axis=1) # 列级别合并
df = dfData.loc[:,[‘D1’,‘D2’,‘D3’,‘D4’,‘D5’,‘D6’,‘D7’,‘D8’,‘D9’,‘D10’]] # 基于全部 10个特征聚类分析
df = dfData.loc[:,[‘D1’,‘D2’,‘D7’,‘D8’,‘D9’,‘D10’]] # 降维后选取 6个特征聚类分析
X = np.array(df) # 准备 sklearn.cluster.KMeans 模型数据
print(“Shape of cluster data:”, X.shape)
KMeans 聚类分析(sklearn.cluster.KMeans)
nCluster = 4
kmCluster = KMeans(n_clusters=nCluster).fit(X) # 建立模型并进行聚类,设定 K=4
print(“Cluster centers:\n”, kmCluster.cluster_centers_) # 返回每个聚类中心的坐标
print(“Cluster results:\n”, kmCluster.labels_) # 返回样本集的分类结果
整理聚类结果(太棒啦!)
listName = dfData[‘地区’].tolist() # 将 dfData 的首列 ‘地区’ 转换为 list
dictCluster = dict(zip(listName,kmCluster.labels_)) # 将 listName 与聚类结果关联,组成字典
listCluster = [[] for k in range(nCluster)]
for v in range(0, len(dictCluster)):
k = list(dictCluster.values())[v] # 第v个城市的分类是 k
listCluster[k].append(list(dictCluster.keys())[v]) # 将第v个城市添加到 第k类
print(“\n聚类分析结果(分为{}类):”.format(nCluster)) # 返回样本集的分类结果
for k in range(nCluster):
print(“第 {} 类:{}”.format(k, listCluster[k])) # 显示第 k 类的结果
return
if name == ‘main’:
main()
(1)python中apply函数python中apply函数")
(2)Pandas中DataFrame数据合并、连接(concat、merge、join)Pandas中DataFrame数据合并、连接(concat、merge、join)")
(3)Python pandas 中loc函数的意思及用法,及跟iloc的区别Python pandas 中loc函数的意思及用法,及跟iloc的区别")
(4)tolist函数 其他形式(数组或者矩阵等)转为列表形式tolist函数 其他形式(数组或者矩阵等)转为列表形式")
(5)利用zip函数将两个列表(list)组成字典(dict)利用zip函数将两个列表(list)组成字典(dict)")
3.2 结果
地区 D1 D2 D3 D4 D5 D6 D7 D8 D9 D10
0 北京 5.96 310 461 1557 931 319 44.36 2615 2.20 13631
1 上海 3.39 234 308 1035 498 161 35.02 3052 0.90 12665
2 天津 2.35 157 229 713 295 109 38.40 3031 0.86 9385
3 陕西 1.35 81 111 364 150 58 30.45 2699 1.22 7881
4 辽宁 1.50 88 128 421 144 58 34.30 2808 0.54 7733
Shape of cluster data: (30, 10)
Cluster centers:
[[-3.04626787e-01 -2.89307971e-01 -2.90845727e-01 -2.88480032e-01
-2.85445404e-01 -2.85283077e-01 -6.22770669e-02 1.12938023e-03
-2.71308432e-01 -3.03408599e-01]
[ 4.44318512e+00 3.97251590e+00 4.16079449e+00 4.20994153e+00
4.61768098e+00 4.65296699e+00 2.45321197e+00 4.02147595e-01
4.22779099e+00 2.44672575e+00]
[ 1.52987871e+00 2.10479182e+00 1.97836141e+00 1.92037518e+00
1.54974999e+00 1.50344182e+00 1.13526879e+00 1.13595799e+00
8.39397483e-01 1.38149832e+00]
[ 4.17353928e-01 -6.60092295e-01 -5.55528420e-01 -5.50211065e-01
-2.95600461e-01 -2.42490616e-01 -3.10454580e+00 -2.70342746e+00
1.14743326e+00 2.67890118e+00]]
Cluster results:
[1 2 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 3 0 0 0 0 0]
聚类分析结果(分为4类):
第 0 类:[‘陕西’, ‘辽宁’, ‘吉林’, ‘黑龙江’, ‘湖北’, ‘江苏’, ‘广东’, ‘四川’, ‘山东’, ‘甘肃’, ‘湖南’, ‘浙江’, ‘新疆’, ‘福建’, ‘山西’, ‘河北’, ‘安徽’, ‘云南’, ‘江西’, ‘海南’, ‘内蒙古’, ‘河南’, ‘广西’, ‘宁夏’, ‘贵州’, ‘青海’]
第 1 类:[‘北京’]
第 2 类:[‘上海’, ‘天津’]
第 3 类:[‘西藏’]
Process finished with exit code 0
4 案例2
4.1 案例——数据
(1)数据介绍:
现有1999年全国31个省份城镇居民家庭平均每人全年消费性支出的八个主要变量数据,这八个变量分别是:食品、衣着、家庭设备用品及服务、医疗保健、交通和通讯、娱乐教育文化服务、居住以及杂项商品和服务。利用已有数据,对31个省份进行聚类。
(2)实验目的:
通过聚类,了解 1999 年各个省份的消费水平在国内的情况
1999年全国31个省份城镇居民家庭平均每人全年消费性支出数据
4.2 代码
#*1. 建立工程,导入sklearn相关包==============**
import numpy as np
from sklearn.cluster import KMeans
#*==2. 加载数据,创建K-means算法实例,并进行训练,获得标签**
def loadData(filePath):
fr = open(filePath, 'r+') #r+:读写打开一个文本文件
lines = fr.readlines() #.readlines() 一次读取整个文件(类似于 .read() ) .readline() 每次只读.readlines() 慢得多。
retData = [] #retData:用来存储城市的各项消费信息
retCityName = [] #retCityName:用来存储城市名称
for line in lines:
items = line.strip().split(",")
retCityName.append(items[0])
retData.append([float(items[i]) for i in range(1, len(items))])
return retData, retCityName #返回值:返回城市名称,以及该城市的各项消费信息
def main():
data, cityName = loadData('city.txt') #1.利用loadData方法读取数据
km = KMeans(n_clusters=4) #2.创建实例
label = km.fit_predict(data) #3.调用Kmeans()fit_predict()方法进行计算
expenses = np.sum(km.cluster_centers_, axis=1)
# print(expenses)
CityCluster = [[], [], [], []] #将城市按label分成设定的簇
for i in range(len(cityName)):
CityCluster[label[i]].append(cityName[i]) #将每个簇的城市输出
for i in range(len(CityCluster)): #将每个簇的平均花费输出
print("Expenses:%.2f" % expenses[i])
print(CityCluster[i])
if name == ‘main’:
main()
#*=3. 输出标签,查看结果============================**
#将城市按照消费水平n_clusters类,消费水平相近的城市聚集在一类中
#expense:聚类中心点的数值加和,也就是平均消费水平
4.3 结果
(1)聚成2类:km = KMeans(n_clusters=2)
(2)聚成3类:km = KMeans(n_clusters=3)
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上Python开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以添加V获取:vip1024c (备注Python)
最后
不知道你们用的什么环境,我一般都是用的Python3.6环境和pycharm解释器,没有软件,或者没有资料,没人解答问题,都可以免费领取(包括今天的代码),过几天我还会做个视频教程出来,有需要也可以领取~
给大家准备的学习资料包括但不限于:
Python 环境、pycharm编辑器/永久激活/翻译插件
python 零基础视频教程
Python 界面开发实战教程
Python 爬虫实战教程
Python 数据分析实战教程
python 游戏开发实战教程
Python 电子书100本
Python 学习路线规划
一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
爬虫实战教程
Python 数据分析实战教程
python 游戏开发实战教程
Python 电子书100本
Python 学习路线规划
一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
[外链图片转存中…(img-6bF1FtgX-1712777785204)]