RDD编程初级实践

本博客介绍如何使用pyspark进行RDD编程,包括数据去重和计算平均值的问题。实验涉及计算学生数量、课程数量、平均分、去重合并文件以及按学生求学科平均分等任务,覆盖了RDD的基本操作和键值对处理。
摘要由CSDN通过智能技术生成

实验目的

(1)熟悉Spark的RDD基本操作及键值对操作;
(2)熟悉使用RDD编程解决实际具体问题的方法。

实验平台

操作系统:Ubuntu16.04
Spark版本:2.4.0
Python版本:3.4.3

实验内容与要求

一、pyspark交互式编程

本次实验提供数据data.txt,该数据集包含了某大学计算机系的成绩,数据如下所示:

Tom,DataBase,80
Tom,Algorithm,50
Tom,DataStructure,60
Jim,DataBase,90
Jim,Algorithm,60
Jim,DataStructure,80
……

根据给定的实验数据,在pyspark中通过编程来计算以下内容:
首先将文件data.txt.(提取码: i99s)放在数据路径下(本实验是放在usr/local/spark/data下)

(1)该系总共有多少学生
实现代码:

lines = sc.textFile("file:///usr/local/spark/data/data.txt")
res = lines.map(lambda x:x.split(",")).map(lambda x:x[0])
sum = res.distinct()
sum.count()

实现过程及结果:
在这里插入图片描述

(2)该系共开设了多少门课程
实现代码:

lines = sc.textFile("file:///usr/local/spark/data/data.txt")
res = lines.map(lambda x:x.split(",")).map(lambda x:x[1])
sum = res.distinct()
sum.count()

实现过程及结果:
在这里插入图片描述

(3)Tom同学的总成绩平均分是多少
实现代码:

lines = sc.textFile("file:///usr/local/spark/sparksqldata/data.txt")
res = lines.map(lambda x:x.split(",")).filter(lambda x:x[0] == 'Tom')
score = res.map(lambda x:int(x[2]))
sum_score = score.reduce(lambda x,y:x+y)
num = res.count()
avg =
  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值