本文中介绍的是一种数据分析方法:群组分析Cohort Analysis。
群组分析是用于研究用户行为和提高增长的分析思路。在本文中,将结合一个数据集利用Python来实现该分析方法。
![05eeae9974bf04e047f12b1519b3745f.png](https://i-blog.csdnimg.cn/blog_migrate/6b0fe986154da5fd098b1ce8d3e60e21.png)
本文数据集下载地址:
https://www.kaggle.com/mkechinov/ecommerce-events-history-in-cosmetics-shop
一、什么是群组分析
群组分析Cohort Analysis,重点就是群/组,它是一种利用用户分层和用户建模的方法,主要分析的是相同用户群体随着时间延续的变化发展情况。
我们需要将获取到的全部用户分成一个个的组或者簇群,这样的群或组的分层方式可以是日期、渠道或者其他特定的用户为来划分。总之,我们可以按照实际的需求和维度来进行用户分层。
通过群组分析,我们可以看到不同组别的留存情况。群组分析Cohort Analysis图表和留存曲线是最常用的留存工具。这些图表主要是告诉我们用户在我们产品的中的参与度如何,留存率是怎样的情况,同时还可以分析用户新增速度是否达到我们的要求。
目前市面上很多的BI工具都可以绘制群组分析的图表和留存曲线,比如GrowingIO、神策大数据系统、PowerBI等。但是,如果想自定义一些分组或分群的维度,使用Python也是不二选择。
二、Cohort 分析使用场景
用户留存率分析
用户流失率分析
用户转化率分析
广告转化率分析
上面是很常见的使用场景,还可以进行其他场合的延伸,比如电商网站用户的交易支付数据,不同周期内获取的用户在交易频次、客单价等的比较分析
三、用户留存
用户留存指的是随着时间延续,用户在某个周期内的存在情况。为什么要看留存?
了解一个渠道的质量:通常是日留存,衡量用户的短期活跃情况
观察整体的情况:用周留存或者月留存,衡量用户在平台上的黏性
留存又分为次日留存、7日留存、14留存等。下面通过一个案例来说明常见的7日留存计算规则。
问题:如何计算产品的7日留存?
![6259ed72e319c0bb2f349f71c4dcbb5a.png](https://i-blog.csdnimg.cn/blog_migrate/56f71d244a80e153f4a7afd68c1ad372.png)
3.1 算法1-7日日留存
第一种算法是:第7天活跃人数 / 第1天活跃人数 * 100%
3.2 算法2-7日内留存
第二种算法是:第2天~第7天去重后/第1天*100%
![8421fa56c3a1efe7ab2526d7ac7669aa.png](https://i-blog.csdnimg.cn/blog_migrate/724fc4e8e60be077d4f3bde527b00b16.png)
3.3 算法3-不同定义的7日日留存
上面的算法1中是把当前日直接记为Day1,还有一种计算方法将当前日当做Day0,然后再开始计算;
![54b3c12131e775d163d37190ca8ce315.png](https://i-blog.csdnimg.cn/blog_migrate/b5c50ef8297c39a785139ad0cdc5fc05.png)
举例说明一下算法3的使用,比如DAU=10刚好是星期2产生的数据:
如果使用算法1,7日日留存=下周1的数据/本周2的数据(10)
如果使用算法2,7日日留存=下周2的数据/本周2的数据(10)
说明:算法3在一定程度上能够巧妙避开星期级别的影响
![e42c721956fc2e14b6f038eb96d09514.png](https://i-blog.csdnimg.cn/blog_migrate/c1d15724805befc4ecf330d64f17db20.png)
3.4 3种留存算法比较
![cceb903f79d9cfc77706c7f53e35b063.png](https://i-blog.csdnimg.cn/blog_migrate/dab752f378e098908373ed6fd7e655e5.png)
四、本文数据
4.1 导入数据
本文中使用的一份数据集是从kaggle下载,主要是包含事件发生时间、类型(阅览、加购、移除购物车和购买)、产品ID、分类ID、产品编码、品牌、价格、用户ID、用户会话,总共7个属性
![8868d6826b82376a5e5e4f16c020f54b.png](https://i-blog.csdnimg.cn/blog_migrate/237df65f8a22e4bc4040700e909df2ab.png)
import numpy as np
import pandas as pd
import datetime as dt
import matplotlib.pyplot as plt
import seaborn as sns
#设置汉字格式:Trebuchet MS, Tahoma, Verdana, Arial, Helvetica,SimHei 中文的幼圆、隶书等等
# 解决中文无法显示问题
plt.rcParams['font.sans-serif']=['Songti SC']
# 解决保存图像中负号'-'显示为方块问题
plt.rcParams['axes.unicode_minus'] = False
4.2 数据探索
主要查看的是数据类型、数据的行列数看大小、数据的缺失值情况
df.dtypes # 数据类型
# 结果
event_time object
event_type object
product_id int64
category_id int64
category_code object
brand object
price float64
user_id int64
user_session object
dtype: object
df.shape # 数据的行列数
# 结果
(3533286, 9)
df.isnull().sum() # 字段缺失值情况
# 结果
event_time 0
event_type 0
product_id 0
category_id 0
category_code 3474821 # 缺失值严重
brand 1510289
price 0
user_id 0
user_session 779
dtype: int64
五、数据清洗
主要操作是挑选数据中价格大于和去重操作:
![327150ca8cf3965e2a91d54e1de6dc46.png](https://i-blog.csdnimg.cn/blog_migrate/4fef39f46a32cdd565c4df86defbe622.png)
六、数据处理
在本文的案例中,群组分析是按照首次访问的时间和每次的访问来计算时间间隔,从而来计算留存情况,具体步骤为:
计算每个用户的首次访问时间min_day
记录后续每次访问时间和首次访问时间的间隔day_gap
因为是12月份的电商数据,我们将一个月分成10份,时间周期为3天
因为上面的两个因素都是和时间相关,所以必须导入Python中强大的datetime库来处理时间处理的需求。
1、获取event_time中的时间:年月日
def get_time(datetime):
"""
函数作用:获取时间中的年月日
"""
event_time = datetime.strip(" UTC") # 传进来的参数去掉 UTC部分
# dt表示datetime库
event_time = dt.datetime.fromisoformat(event_time) # 生成一个YYYY-MM-DD的date对象
y = dt.date(event_time.year,event_time.month,event_time.day) # 取出年月日
return y
df2["event_day"] = df2["event_time"].apply(get_time)
df2
![d56ae4488f181ab20faa3cbbf9cb9448.png](https://i-blog.csdnimg.cn/blog_migrate/29f472b436b2199c34804781e8efc3bb.png)
2、根据每个用户user_id来确定最早时间
# 用户本月的最早登陆时间确定
grouping = df2.groupby("user_id")["event_day"]
grouping
![d621e6068037d73f040008c737d30679.png](https://i-blog.csdnimg.cn/blog_migrate/4a9ed1e8efed7de15643f46228306535.png)
df2["min_day"] = grouping.transform("min")
df2.head()
![b749ec13e55a199408400d67e82611ed.png](https://i-blog.csdnimg.cn/blog_migrate/6564f89aa9dda0ebb75705ad96212fbd.png)
3、计算访问日event_day和最早访问时间的间隔
# 计算用户当日访问event_day和最早访问时间min_day之间的时间间隔
# 3为假定的用户分组访问周期
df2["day_gap"] = (((df2["event_day"] - df2["min_day"]) // 3) + dt.timedelta(days=1)).apply(lambda x:x.days)
df2
![06fa0ffdfb3e8b921565845850cabaa0.png](https://i-blog.csdnimg.cn/blog_migrate/44b221232809554bd64b7650d184915b.png)
4、按照首次访问时间和时间间隔来统计用户数
# 按照首次访问时间和下一次访问的间隔,统计用户数
grouping1 = df2.groupby(["min_day","day_gap"])
# 根据用户user_id去重统计每个组的用户数
# grouping1["user_id"].apply(pd.Series.nunique):展示去重的总个数
# grouping1["user_id"].apply(pd.Series.unique): 展示去重之后的具体元素
df3 = grouping1["user_id"].apply(pd.Series.nunique).reset_index()
df3.head()
![37ce3092c71625005c86cef8daaed5a6.png](https://i-blog.csdnimg.cn/blog_migrate/f07885eb80b9ced8c23768b8a0849bd4.png)
上面表中的数据表示的是和当前的时间间隔分别为1,2,3…的人数分别为17519,2591,2276等
5、生成数据透视表
有了上面分组统计的数据,我们可以生成透视表
# 数据透视部分
df4 = df3.pivot(index="min_day",columns="day_gap",values="user_id")
df4.head()
![49279a7a33f1460fadac17553114fe3e.png](https://i-blog.csdnimg.cn/blog_migrate/4339a02d2e92f956dc361fb85f7197c5.png)
6、改变数据形式:方便最终使用百分比显示数据
一般情况下,我们习惯用百分比来表示用户的留存,很清晰地看到用户的留存比例。首先我们取出第一列的数据(全部行):
![b681712a0605840b4313b3643a5fc980.png](https://i-blog.csdnimg.cn/blog_migrate/1d4d6d30c3e20e0d3f27fdc907c3ff24.png)
后面每个数据除以相应日期的第一个数据:
# divide 函数
table = df4.divide(size,axis=0) # 在行的方向上除以对应size中的值
table.head()
![e364050c92cbbf2367cc51c237b38d18.png](https://i-blog.csdnimg.cn/blog_migrate/2481f2ef5ca6c50b69dc835db484f4ac.png)
保留3位小数,同时改变数据table的索引值:
# 保留3位小数并乘以100
table.round(3) * 100
# 索引重置,只取出年月日,后面的时分秒取消
table.index = table.index.date
群组分析绘图
绘制群组分析留存热力图:
# 解决中文无法显示问题
plt.rcParams['font.sans-serif']=['Songti SC']
# 解决保存图像中负号'-'显示为方块问题
plt.rcParams['axes.unicode_minus'] = False
plt.figure(figsize=(15,8))
plt.title("群组分析留存图")
sns.heatmap(data=table,
annot=True,
fmt='.0%',
vmin = 0.0,
vmax = 0.2,
cmap="BuPu_r"
)
plt.show()
![93d52457719d83f027d4d9385786cb06.png](https://i-blog.csdnimg.cn/blog_migrate/00580bacbd8710c3ce73ac31298e1ffc.png)
从上面的数据中我们可以看到:前6天的留存情况还是很漂亮(颜色较浅,留存率相对较高)。
可能原因是这是整个12月份的全量数据,导致了多数的活跃用户会被归类为月初前几天的新增活跃用户。但是数据整体上到了月末,留存占比还是较少,月留存情况并不可观。
- END -
对比Excel系列图书累积销量达15w册,让你轻松掌握数据分析技能,可以在全网搜索书名进行了解: