RDD编程初级实践

该博客介绍了Spark RDD的初步实践,包括在pyspark环境中进行交互式编程,如计算学生人数、课程数量、平均分等;并展示了如何编写独立应用程序实现数据去重和求平均分的问题,利用累加器功能统计特定课程的人数。
摘要由CSDN通过智能技术生成

RDD编程初级实践

实验目的

(1)熟悉Spark的RDD基本操作及键值对操作;
(2)熟悉使用RDD编程解决实际具体问题的方法。

实验平台

操作系统:Ubuntu16.04
Spark版本:2.4.8
Hadoop版本:3.3.0
Python版本:3.5.1

实验内容

pyspark交互式编程

本作业提供分析数据data.txt,该数据集包含了某大学计算机系的成绩。
数据格式如下所示:

Tom,DataBase,80
Tom,Algorithm,50
Tom,DataStructure,60
Jim,DataBase,90
Jim,Algorithm,60
Jim,DataStructure,80
......

请根据给定的实验数据,在pyspark中通过编程来计算以下内容:

该系总共有多少学生?

代码:

lines = sc.textFile("file:///usr/local/spark/data/data.txt")
//获取每行数据第一列
res = lines.map(lambda x:x.split(",")).map(lambda x: x[0])
//去重
distinct_res = res.distinct()
//统计
distinct_res.count()

该系总共有多少学生?
该系总共有265名学生。

该系共开设了多少门课程?

代码:

lines = sc.textFile("file:///usr/local/spark/data/data.txt")
//获取每行数据的第2列
res = lines.map(lambda x:x.split(",")).map(lambda x:x[1])
//去重操作
distinct_res = res.distinct()
//取元素总个数
distinct_res.count()

该系共开设了多少门课程?
该系共开设了8门课程。

Tom同学的总成绩平均分是多少?
lines = sc.textFile("file:///usr/local/spark/data/data.txt")
//筛选Tom同学的成绩信息
res = lines.map(lambda x:x.split(",")).filter(lambda x:x[0]=="Tom")
//提取Tom同学的每门成绩,并转换为int类型
score = res.map(lambda x:int(x[2]</
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值