这次分享的是在工作中经常用到的聚类分析,只要是工作中涉及到客户分群,哪能不用到聚类分析呢?聚类分析涉及的方法有层次聚类、kmeans聚类、密度聚类等,这里主要介绍最容易上手的kmeans聚类算法,上手就是王道!
kmeans聚类原理:基于原型的、划分的距离技术,它试图发现用户指定个数(K)的簇。统计学原理请大家自觉完成自学~~
实战一:
老板的需求:将17家门店分成3类,依据指标是销售金额和客户数量,其中要求销售金额权重(60%),客户数量权重(40%)
需求解析:很幸运,这是一个具体的要求,恩!这里已经指定分类数量,并且要求对各个指标赋权重,那么就需要对各个指标依次进行聚类,得到分组后,对各组值赋一个分数,再将分数乘以权重比例相加,就能实现boss的要求~~
#载入cluster
library(cluster)
#读入需要聚类的数据
a<-read.csv("testdata.csv",header=TRUE)
str(a)
'data.frame': 17 obs. of 3 variables:
$ 网点分类: Factor w/ 17 levels "store1","store10",..: 1 10 11 12 13 14 15 16 17 2 ...
$ 销售金额: num 29.41 9.72 6.15 5.72 5.57 ...
$ 客户数量: num 141.3 84.7 95 98.5 58.3 ...
#查看数据前4行
> head(a,n=4)
网点分类 销售金额 客户数量
1 store1 29.408587 141.33560
2 store2 9.719984 84.67674
3 store3 6.154773 95.00602
4 store4 5.721835 98.48247
#将第一个指标划分为3类
res1<-kmeans(a$销售金额,3)
#将第二个指标划分为3类
res2<-kmeans(a$客户数量,3)
#将聚类结果按列合并在数据集中
res3<-cbind(a,res1$cluster,res2$cluster)
#查看前4行数据
> head(res3,n=4)
网点分类 销售金额 客户数量 res1$cluster res2$cluster
1 store1 29.408587 141.33560 3 1
2 store2 9.719984 84.67674 1 2
3 store3 6.154773 95.00602 1 2
4 store4 5.721835 98.48247 1 2
#两个指标的聚类中心
> res1$centers
[,1]
1 5.519207
2 2.566558
3 29.408587
> res2$centers
[,1]
1 123.11407
2 86.39321
3 64.49325
#导出聚类结果
write.csv(res3,file='res3.csv')
因为聚类结果已经划分为3类,因此只要将3类结果赋予对应分值,然后按照权重计算出结果,解释出各个分类群体对应业务含义(其实就是打标签),就完成了门店的分类工作。
实战二:
老板需求:对我们的门店数据集进行分类
需求解析:这是一个很普遍的情况~~这里业务场景没有指定数量,也没有对指标赋予权重,我们要做的是将两个指标:销售金额与客户数量一起作为聚类的指标,参与聚类,得出结果,打出标签!考虑到数据单位不同,建议处理使用数据时进行标准化处理。
#载入factoextra包
library(factoextra)
#读入需要聚类的数据
a<-read.csv("testdata.csv",header=TRUE)
str(a)
#对数据进行标准化处理,需要去掉非数字的列
a1<-a[,-1]
b<-scale(a1)
#设置随机种子,保证试验客重复进行
set.seed(123)
#确定最佳聚类个数,使用组内平方误差和法
fviz_nbclust(b,kmeans,method="wss")+geom_vline(xintercept=4,linetype=2)
实用!这里函数直观给出最佳分类个数:4
#根据最佳聚类个数,进行kmeans聚类
res<-kmeans(b,4)
#将分类结果放入原数据集中
res1<-cbind(a,res$cluster)
#导出最终结果
write.csv(res1,file='res1.csv')
#查看最终聚类图形
fviz_cluster(res,data=a1)
从图形可以看出fviz_cluster()函数功能还是非常强大,可视化效果很直观清晰,12号门店单独一类,6号门店单独一类,13号、9号等6家门店一类,11号、4号等9家一类,你需要做的是给这四类门店打标签,给出合理的业务描述,那么工作才算完成!
今天的分享就到这里,欢迎交流,下次再见!