一、提出问题
本文想针对以下几点问题,对淘宝用户行为数据进行分析 :
1)基于AARRR漏斗模型,分析常见电商分析指标,从新增用户数量、各环节转化率、新用户留存率三个方面进行分析,提出增加新增用户数,提高用户行为转化率,以及解决用户留存问题的建议
2)研究不同时间尺度下的用户行为规律,针对该规律提出营销建议。
3)基于RFM模型建立用户价值等级,针对不同等级的用户提出相应的管理策略。
二、理解数据
- 数据来源
阿里云天池数据集:(https://tianchi.aliyun.com/dataset/dataDetail?dataId=649)
本文选取的数据集为UserBehavior.csv,共有5242880条数据。数据的具体类别如下表所示:
用户行为种类有四种,如下表所示
对于数据维度的说明如下:
在本文选取的2017年11月25日到2017年12月3日的时间范围内,不重复的用户数量为10202,不重复的商品ID数为412369,不重复的商品类目ID数为5859,用户行为总数为1048575。
三、数据清洗
1、定义列名:原始数据没有列名,因此需要重新定义。
import pandas as pd
import numpy as np
data=pd.read_csv('UserBehavior (1).csv',encoding='utf')
data.columns=['user_id','item_id','category_id','behavior','time'] #加入列名
2、整理数据
原始数据中,时间数据为纯数字,如1511544070,我们要把它转化为正常的数据格式。
import datetime
def num_to_time(x):
return datetime.datetime.fromtimestamp(x).strftime('%Y/%m/%d %H:%M:%S')
data['time']= data['time'].apply(num_to_time) #应用apply
将时间列的日期和时间点分开
data=pd.concat([data,data['time'].str.split(r' ',expand=True)],axis=1) #合并到数据框
data.rename(columns={
0:'date',1:'time'}, inplace=True) #给列重新命名
这份数据里的时间点有些散乱,对日期分组计数一下看有无适合分析的数据。
d1=data.groupby('date').count()
可以看到2017年11月25日到2017年12月3日这段时间,每天都有十万个以上的用户数据,应该比较完整的,且具有一定的分析价值,因此我们就对这段时间的数据进行分析。
3.异常值处理
看一下数据是否全都在选定的范围内
user_data.date.unique()
结果如下,没有其他日期数据。
array(['2017/11/25', '2017/11/26', '2017/11/27', '2017/11/28',
'2017/11/29', '2017/11/30', '2017/12/01', '2017/12/02',
'2017/12/03'], dtype=object