我们说RFM模型由R(最近消费时间间隔)、F(消费频次)和M(消费总额)三个指标构成,通过该模型识别出高价值客户。但该模型并不完全适合所有行业,如航空行业,直接使用M指标并不能反映客户的真实价值,因为“长途低等舱”可能没有“短途高等舱”价值高。所以得根据实际行业灵活调整RFM模型的指标,本文就拿航空公司的数据为例,将RFM模型构建成L(入会至当前时间的间隔,反映可能的活跃时长)、R(最近消费时间距当前的间隔,反映当前的活跃状态)、F(乘机次数,反映客户的忠诚度)、M(飞行里程数,反映客户对乘机的依赖性)和C(舱位等级对应的折扣系数,侧面反映客户价值高低)5个指标。下面就利用这5个指标进行客户价值分群的实战:
#########设置工作空间####
setwd("D:/spss modeler/数据")
#######数据的读取
datafile=read.csv('./air_data.csv',header=T)
该数据集包含了62988条会员记录,涉及会员号、入会时间、首次登机时间、性别等44个字段。发现这么多字段中,正真能使用到的字段只有FFP_DATE(入会时间)、LOAD_TIME(观测窗口结束时间,可理解为当前时间)、FLIGHT_COUNT(乘机次数)、SUM_YR_1(票价收入1)、SUM_YR_2(票价收入2)、SEG_KM_SUM(飞行里程数)、LAST_FLIGHT_DATE(最后一次乘机时间)和avg_discount(舱位等级对应的平均折扣系数)。下面来看一下这些数据的分布情况:
##确定探索分析变量
col=c(15:18,20:29)#去掉日期型变量
###输出变量最值,缺失情况
summary(datafile[,col])
发现数据中存在异常,如票价收入为空或0、舱位等级对应的平均折扣系数为0。这样的异常可能是由于客户没有实际登机造成,故考虑将这样的数据剔除。具体操作如下:
###数据清洗代码###
####丢弃票价为空的记录
delet_na=datafile[-which(is.na(datafile$SUM_YR_1)|is.na(datafile$SUM_YR_2)),]
####丢弃票价为0,平均折扣率不为0,总飞行公里数大于0的记录
index=((delet_na$SUM_YR_1==0&delet_na$SUM_YR_2==0)
*(delet_na$avg_discount!=0)
*(delet_na$SEG_KM_SUM>0))
deletdata=delet_na[-which(index==1),]
####保存清洗后的数据
cleanedfile=deletdata
str(cleanedfile)
属性的规约
原始数据中的属性太多,根据航空公司价值LRFMC模型,选择与LRFMC指标相关的6个属性:FFP_DATE(入会时间)、LOAD_TIME(观测窗口结束时间,可理解为当前时间)、FLIGHT_COUNT(乘机次数)、SUM_YR_1(票价收入1)、SUM_YR_2(票价收入2)、SEG_KM_SUM(飞行里程数)、LAST_FLIGHT_DATE(最后一次乘机时间)和avg_discount(舱位等级对应的平均折扣系数)。下面来看一下这些数据的分布情况:
LRFMC<-c('FFP_DATE','LOAD_TIME','FLIGHT_COUNT','SUM_YR_1','SUM_YR_2','SEG_KM_SUM','LAST_FLIGHT_DATE','avg_discount')
cleanedfile_1<-cleanedfile[,LRFMC]
summary(cleanedfile_1)
str(cleanedfile_1)
从上面可以看出FFP_DATE,LOAD_TIME,LAST_FLIGHT_DATE,并不是数值型数据而是发现三个关于时间的字段均为因子型数据,需要将其转换为日期格式,用于下面计算时间差:
####时间数据的转化
####时间数据的转化
cleanedfile_1$FFP_DATE <-as.Date(cleanedfile_1$FFP_DATE)
cleanedfile_1$LOAD_TIME <-as.Date(cleanedfile_1$LOAD_TIME)
cleanedfile_1$LAST_FLIGHT_DATE<-as.Date(cleanedfile_1$LAST_FLIGHT_DATE)
数据格式的转化后的数据如下:
#L:入会至当前时间的间隔
#R:最近登机时间距当前的间隔
cleanedfile_1<- transform(cleanedfile_1,L=difftime(LOAD_TIME,FFP_DATE, units = 'days')/30, R =difftime(LOAD_TIME,LAST_FLIGHT_DATE, units = 'days')/30)
str(cleanedfile_1)
发现L和R这两个指标并不是数值型数据,而是difftime型,故需要将其转换为数值型:
##数值型的转化
cleanedfile_1$L <- as.numeric(cleanedfile_1$L)
cleanedfile_1$R <- as.numeric(cleanedfile_1$R)
str(cleanedfile_1)
发现缺失值,这里仍然将其剔除:
cleanedfile_1<-na.omit(cleanedfile_1)
目前5个指标值都有了,下面就需要根据每个客户的5个值对其进行分群,传统的方法是计算综合得分,然后排序一刀切,选出高价值、潜在价值和低价值客户。现在所使用的方法是k-means聚类算法,避免了人为的一刀切。由于k-means聚类算法是基于距离计算类与类之间的差别,然而这5个指标明显存在量纲上的差异,故需要标准化处理:
####数据标准化
#数据标准化处理
#########
cleanedfile_2=cleanedfile_1[,c('L','R','FLIGHT_COUNT','SEG_KM_SUM','avg_discount')]
#构建标准化函数
standard <- function(x) {
(x-min(x))/(max(x)-min(x))
}
zsredfile<-sapply(X=cleanedfile_2,FUN=standard)
colnames(zsredfile)=c("ZL","ZR","ZF","ZM","ZC")
head(zsredfile)
数据标准化如下
标准化数据之后,就可以使用k-means聚类算法将客户进行聚类,问题是该聚为几类呢?根据业务的理解与分析确定客户类别数量,即:分为五类,
#k-means聚类,设置聚类个数为5
set.seed(1234)
result<- kmeans(x =zsredfile, centers = 5)
###结果输出
type=result$cluster
table(type)###查看类别的分布
centervec=result$center
上图反馈了客户的聚类结果,但是从数据中很难快速的找出不同价值的客户,下面通过绘制雷达图来反映聚类结果:
###展现分类图
library(fpc)
plotcluster(zsredfile, result$cluster) #展现分类图
从上图可以看出五类人的基本分布情况,
#绘制雷达图
install.packages('fmsb')
library(fmsb)
max <- apply(centervec, 2, max)
min <- apply(centervec,2,min)
df = data.frame(rbind(max,min,centervec))
radarchart(df = df, seg=5, plty=1,vlcex=0.7)
从图中可知,黑色线是价值最高的,F和M值对应最高,C值次高,属于第2组人群;价值次高的是蓝色线人群,即第3组,该人群特征是C值最大;以此类推,海绿色线人群的价值最低,雷达图所围成的面积最小。还有一种办法能够最快的识别出价值由高到低的5类人群,即对5个人群各指标均值求和排序即可,因为数据都是标准化的,不受量纲影响,可直接求和排序:
order(apply(centervec,1,sum),decreasing = TRUE)
结果显示第2组人群最佳、其次是第3组人群,最差的是第5组人群。通过对比centers结果,能够很好的反映5组人群的价值高低:
客户群 | 排名 | 排名含义 |
客户群2 | 1 | 重要保持客户 |
客户群3 | 2 | 重要发展客户 |
客户群1 | 3 | 重要挽留客户 |
客户群4 | 4 | 一般客户 |
客户群5 | 5 | 低价值客户 |