【大数据】用Spark进行用户行为分析

1.文件下载

  • 数据
    • 淘宝用户购物行为数据集 https://tianchi.aliyun.com/dataset/649
    • 完整数据文件UserBehavior.csv,3.42G https://pan.baidu.com/s/1Y_RKr_Dw2dcnUJR4m3LHzw 提取码:p8gz
    • 小测试文件 UserBehaviorSmall.csv 18M
      https://pan.baidu.com/s/1CpiGrNSGkA0KVLxxmVcg8Q 提取码:hnaq
    • 缩减版数据
      https://pan.baidu.com/s/1WEtY1aDrlsTz5dntKNjkqA 提取码:onaz

数据集包含了约一亿条随机用户的所有行为:

  • 数据集的每一行表示一条用户行为:用户ID、商品ID、商品类目ID、行为类型和时间戳组成,并以逗号分隔。
  • 行为类型:点击pv、购买buy、加购cart、fav收藏

  • 操作代码: 用Spark进行用户行为分析
    可以点击上面这个链接直接下载代码,我分了4个代码文件,按照我写的注意事项进行操作即可。

本文是记录我学习pyspark操作小实验,仅供参考,欢迎指正与讨论!

2.上传文件

下载好文件并且上传到虚拟机:
在这里插入图片描述

由于本人虚拟机运行不了大文件,所以改用jupyter notebook:
在这里插入图片描述

3.数据预处理

1)原始文件时间戳数据转换为datetime类型,能按日期和时间进行查找。

import numpy as np
import pandas as pd
import pyspark
from pyspark.context import SparkContext
from pyspark.sql.session import SparkSession
sc = SparkContext('local')
spark = SparkSession(sc)
print(type(spark))
url = 'D:\\Jupyter_notebook\\dsj\\UserBehavior.csv'
# 读取CSV文件并将其存储为DataFrame对象
df = pd.read_csv(url, header=None)
# 将时间戳数据转换为datetime类型,并将其存储在一个新的列中
df[4] = pd.to_datetime(df[4], unit='s')
df.head(10)

在这里插入图片描述
在这里插入图片描述在这里插入图片描述

# 转成新的两列
df[5] = df[4].dt.hour
df[6] = df[4].dt.strftime('%Y/%m/%d')

在这里插入图片描述

# 删除第四列
df = df.drop(columns=[4])
# 第六列赋值给第四列
df[4] = df[6].copy()
# 删除第6列
df = df.drop(columns=[6])

在这里插入图片描述

在这里插入图片描述

# 改列名
df = df.rename(columns={
   0: "user_id", 1: "product_id", 2: "product_category", 3: "action", 4: "date", 5: "hour"})
# 查看列名
print(df.columns)
df.head(10)

在这里插入图片描述

2)删除不正常数据(例如日期不是2017年的)

# 删除重复行
df.drop_duplicates(inplace=True)
# 检查该列是否包含NaN
print(df[4].isnull().sum())

在这里插入图片描述
由于本人电脑内存不足,所以到这里先把前面处理好的数据保存到本地,不然电脑会崩溃

df.to_csv('D:\\Jupyter_notebook\\dsj\\UserBehavior1.csv',index=False)

在这里插入图片描述在这里插入图片描述

新建一个文件,处理刚才存下来的新文件
在这里插入图片描述

# 将 date 列转换为 datetime 类型
df['date'] = pd.to_datetime(df['date'])
# 将 hour 列转换为 datetime 类型
df['hour'] = pd.to_datetime(df['hour'])

在这里插入图片描述在这里插入图片描述

# 转换为只包含小时的字符串类型
# df['hour'] = df['hour'].dt.strftime('%H')
# 把日期不是2017年的全部删除
df = df.loc[df['date'].dt.year == 2017]

在这里插入图片描述

3)字段解析

print(df.dtypes)
print(df.head(5))

在这里插入图片描述

4)生成RDD

rdd = sc.textFile(url).map(lambda line:line.split(','))

在这里插入图片描述

由于notebook运行rdd的时候报错了,所以后面所有rdd相关操作都用databricks运行,而DF和sparkSQL语句则用notebook,因为用虚拟机的时候崩溃了

在这里插入图片描述

5)生成DataFrame

第一种

from pyspark.sql.types import StructField,StructType,IntegerType,StringType
from pyspark import Row
# 生成表头
fields=[StructField('user_id',IntegerType(),True),
        StructField('product_id',IntegerType(),True),
        StructField('product_category ',IntegerType(),True),
        StructField('action',StringType(),True),
        StructField('hour',IntegerType(),True),
        StructField('date',StringType(),True)]
schema=StructType(fields)
# 生成“表中的记录”
data1 = rdd.map(lambda line:Row(int(line[0]),
                                int(line[1]),
                                int(line[2]),
                                line[3],
                                int(line[4]),
                                line[5]))
# 把“表头”和“表中的记录”拼接在一起
df=spark.createDataFrame(data1,schema)
df.printSchema()
df.cache()
df.createOrReplaceTempView("scs")

在这里插入图片描述
在这里插入图片描述
第二种

# 读取CSV文件并将其存储为DataFrame对象
df = pd.read_csv(url, header=0)

在这里插入图片描述

第三种

# 读取 .csv 文件并创建 DataFrame
df = spark.read.csv(url, header=True, inferSchema=True)

在这里插入图片描述

6)生成SQL临时表

df.createOrReplaceTempView("table")
# 在 Spark SQL 中查询临时表
result = spark.sql("SELECT * FROM table WHERE user_id = 1")

# 输出查询结果
result.show()

在这里插入图片描述

4.用Spark RDD操作、Spark SQL DataFrame操作和SQL语句三种方法完成以下数据分析。

1)数据整体概况:数据集中有多少条记录,有多少个用户,有多少件商品,有多少个商品类别,记录了多少个日期的数据。

在这里插入图片描述

1)rdd操作:
# 获取数据集中记录的总数
rdd.count()

在这里插入图片描述

# 获取唯一用户数
rdd.map(lambda line: line[0]).distinct().count()

在这里插入图片描述

# 获取唯一商品数
rdd.map(lambda line: line[1]).distinct().count()

在这里插入图片描述

# 获取唯一商品类别数
rdd.map(lambda line: line[2]).distinct().count()

在这里插入图片描述

# 获取记录的日期数
rdd.map(lambda line: line[5]).distinct().count()

在这里插入图片描述

2)DF操作:
# 获取数据集中记录的总数
record_count = df.count()
# 获取唯一用户数
user_count = df.select('user_id').distinct().count()
# 获取唯一商品数
product_count = df.select('product_id').distinct().count()
# 获取唯一商品类别数
category_count = df.select('product_category').distinct().count()
# 获取记录的日期数
date_count = df.select('date').distinct().count()
print("record_count:",record_count,
      ",user_count:",user_count,
      ",product_count:",product_count,
      ",category_count:",category_count,
      ",date_count:",date_count)

在这里插入图片描述

3)SQL语句:
spark.sql("SELECT COUNT(*) AS total_records,COUNT(DISTINCT user_id) AS unique_users,"
          "COUNT(DISTINCT product_id) AS unique_products,COUNT(DISTINCT product_category) AS unique_categories,"
         "COUNT(DISTINCT date) AS unique_dates FROM table"
).show()

在这里插入图片描述

2)人均点击次数(总点击量pv/点击用户数)

1)rdd操作:
# 2)人均点击次数(总点击量pv/点击用户数)
# 过滤出所有 action 为 pv 的记录,并提取出 user_id 字段
pv_rdd = rdd.filter(lambda x: x[3
  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值