- 导入必要的库
from pyspark import SparkContext, SparkConf
from pyspark.sql import SparkSession
- 创建SparkSession
conf = SparkConf().setAppName("Logistics Data Analysis")
sc = SparkContext(conf=conf)
spark = SparkSession(sc)
- 读取数据
# 读取物流订单数据
logistics_orders = spark.read.format("csv").option("header", "true").load("logistics_orders.csv")
# 读取物流订单详情数据
logistics_order_details = spark.read.format("csv").option("header", "true").load("logistics_order_details.csv")
# 读取快递员信息数据
couriers = spark.read.format("csv").option("header", "true").load("couriers.csv")
- 数据清洗和预处理
# 将物流订单数据进行清洗和预处理
logistics_orders = logistics_orders.dropDuplicates() # 去重
logistics_orders = logistics_orders.dropna() # 去除缺失值
# 将物流订单详情数据进行清洗和预处理
logistics_order_details = logistics_order_details.dropDuplicates() # 去重
logistics_order_details = logistics_order_details.dropna() # 去除缺失值
# 将快递员信息数据进行清洗和预处理
couriers = couriers.dropDuplicates() # 去重
couriers = couriers.dropna() # 去除缺失值
- 数据合并
# 合并物流订单数据和物流订单详情数据
order_details = logistics_orders.join(logistics_order_details, on="order_id")
# 合并订单详情数据和快递员信息数据
couriers_info = order_details.join(couriers, on="courier_id")
- 数据聚合和分析
# 使用Spark SQL进行数据聚合和分析
couriers_info.createOrReplaceTempView("couriers_info")
result = spark.sql("""
SELECT
courier_name,
COUNT(DISTINCT order_id) AS total_orders,
AVG(delivery_time) AS avg_delivery_time
FROM couriers_info
GROUP BY courier_name
ORDER BY total_orders DESC
""")
# 显示结果
result.show()
我们使用了Spark SQL实现物流行业数据分析,具体实现过程如下:
- 首先,读取需要进行数据分析的数据,如物流订单数据、物流订单详情数据和快递员信息数据等。
- 接着,对读取的数据进行清洗和预处理,如去重、去除缺失值等。
- 然后,使用join操作将不同的数据表进行合并,得到包含多个表的数据集。
- 最后,使用Spark SQL进行数据聚合和分析,得到需要的结果,如对快递员的订单总数和平均配送时间进行统计分析。