RDD编程初级实践

RDD编程初级实践

       
本实验目的:
(1)熟悉Spark的RDD基本操作及键值对操作;
(2)熟悉使用RDD编程解决实际具体问题的方法。


一、实验环境

本次实验采用以下平台搭建:
(1)安装Linux: Linux Ubuntu Kylin 14.04
(2)安装Hadoop2.10.0 (查看安装教程
(3)使用Python: 3.5以上
(4)安装Spark: 2.4.7(查看安装教程
(5)本次实验的实验数据可从迅雷云盘下载提取码为ksi6。

二、实验内容和要求

1.pyspark交互式编程

      本作业提供分析数据data.txt,该数据集包含了某大学计算机系的成绩,数据格式如下所示:
Tom,DataBase,80
Tom,Algorithm,50
Tom,DataStructure,60
Jim,DataBase,90
Jim,Algorithm,60
Jim,DataStructure,80
……
请根据给定的实验数据,在pyspark中通过编程来计算以下内容:
(1)该系总共有多少学生;

>>> lines = sc.textFile("file:///usr/local/spark/mycode/data.txt")
>>> res = lines.map(lambda x:x.split(",")).map(lambda x: x[0]) #获取每行数据的第1列
>>> dis = res.distinct()  #去重操作
>>> dis.count() #取元素总个数

在这里插入图片描述
答案为:265人

(2)该系共开设了多少门课程;

>>> lines = sc.textFile("file:///usr/local/spark/mycode/data.txt")
>>> res = lines.map(lambda x:x.split(",")).map(lambda x:x[1]) #获取每行数据的第2列
>>> dis = res.distinct()  #去重操作
>>> dis.count() #取元素总个数

在这里插入图片描述
答案为:8
(3)Tom同学的总成绩平均分是多少;

>>> lines = sc.textFile("file:///usr/local/spark/mycode/data.txt")
>>> res = lines.map(lambda x:x.split(",")).filter(lambda x:x[0]=="Tom") #筛选Tom同学的成绩信息
>>> res.foreach(print)
>>> score = res.map(lambda x:int(x[2])) #提取tdu同学的每门成绩,并转换为int类型
>>> num = res.count() #Tom同学选课门数
>>> sum = score.reduce(lambda x,y:x+y) #tdu同学的总成绩
>>> avg = sum /num #总成绩/门数=平均分
>>> print(avg)

在这里插入图片描述
在这里插入图片描述
答案为:30.8
(4)求每名同学的选修的课程门数;

>>> lines = sc.textFile("file:///usr/local/spark/mycode/data.txt")
>>> res = lines.map(lambda x:x.split(",")).map(lambda x:(x[0],1)) #学生每门课程都对应(学生姓名,1),学生有n门课程则有n个(学生姓名,1)
>>> eachres = res.reduceByKey(lambda x,y: x+y) #按学生姓名获取每个学生的选课总数
>>> eachres.foreach(print)

在这里插入图片描述

(5)该系DataBase课程共有多少人选修;

>>> lines = sc.textFile("file:///usr/local/spark/mycode/data.txt")
>>> res = lines.map(lambda x:x.split(",")).filter(lambda x:x[1]=="DataBase")
>>> res.count()

在这里插入图片描述
答案为:1764
(6)各门课程的平均分是多少;

>>> lines = sc.textFile("file:///usr/local/spark/mycode/data.txt")
>>> res = lines.map(lambda x:x.split(",")).map(lambda x:(x[1],(int(x[2]),1))) #为每门课程的分数后面新增一列1,表示1个学生选择了该课程。格式如('Network', (44, 1))
>>> temp = res.reduceByKey(lambda x,y:(x[0]+y[0],x[1]+y[1])) #按课程名聚合课程总分和选课人数。格式如('Network', (7370, 142))
>>> avg = temp.map(lambda x:(x[0], round(x[1][0]/x[1][1],2))) #课程总分/选课人数 = 平均分,并利用round(x,2)保留两位小数
>>> avg.foreach(print)

在这里插入图片描述

(7)使用累加器计算共有多少人选了DataBase这门课。

>>> lines = sc.textFile("file:///usr/local/spark/mycode/data.txt")
>>> res = lines.map(lambda x:x.split(",")).filter(lambda x:x[1]=="DataBase") #筛选出选了DataBase课程的数据
>>> accum = sc.accumulator(0) #定义一个从0开始的累加器accum
>>> res.foreach(lambda x:accum.add(1)) #遍历res,每扫描一条数据,累加器加1
>>> accum.value #输出累加器的最终值

在这里插入图片描述
答案为:1764

2.编写独立应用程序实现数据去重

      对于两个输入文件A和B,编写Spark独立应用程序,对两个文件进行合并,并剔除其中重复的内容,得到一个新文件C。本文给出门课的成绩(A.txt、B.txt)下面是输入文件和输出文件的一个样例,供参考。
输入文件A的样例如下:
20200101 x
20200102 y
20200103 x
20200104 y
20200105 z
20200106 z
输入文件B的样例如下:
20200101 y
20200102 y
20200103 x
20200104 z
20200105 y
根据输入的文件A和B合并得到的输出文件C的样例如下:
20200101 x
20200101 y
20200102 y
20200103 x
20200104 y
20200104 z
20200105 y
20200105 z
20200106 z
实验答案参考步骤如下:
(1)假设当前目录为/usr/local/spark/mycode/,在当前目录下新建一个DZYtest2.py文件
在这里插入图片描述

在这里插入图片描述

(2)最后在目录/usr/local/spark/mycode/remdup下执行下面命令执行程序(注意执行程序时请先退出pyspark shell,否则会出现“地址已在使用”的警告);

$ python3 remdup.py

在这里插入图片描述
(3)在目录/usr/local/spark/mycode/remdup/result下即可得到结果文件part-00000。
在这里插入图片描述

3.编写独立应用程序实现求平均值问题

      
      每个输入文件表示班级学生某个学科的成绩,每行内容由两个字段组成,第一个是学生名字,第二个是学生的成绩;编写Spark独立应用程序求出所有学生的平均成绩,并输出到一个新文件中。本文给出门课的成绩(Algorithm.txt、Database.txt、Python.txt),下面是输入文件和输出文件的一个样例,供参考。
Algorithm成绩:
小明 92
小红 87
小新 82
小丽 90
Database成绩:
小明 95
小红 81
小新 89
小丽 85
Python成绩:
小明 82
小红 83
小新 94
小丽 91
平均成绩如下:
(小红,83.67)
(小新,88.33)
(小明,89.67)
(小丽,88.67)

实验答案参考步骤如下:
(1)假设当前目录为/usr/local/spark/mycode/avgscore,在当前目录下新建一个avgscore.py;
在这里插入图片描述
(2)最后在目录/usr/local/spark/mycode/avgscore下执行下面命令执行程序(注意执行程序时请先退出pyspark shell,否则会出现“地址已在使用”的警告)。

在这里插入图片描述
(3)在目录/usr/local/spark/mycode/avgscore/result下即可得到结果文件part-00000。
在这里插入图片描述

在这里插入图片描述

总结

      通过熟悉Spark的RDD基本操作及键值对操作以及使用RDD编程解决实际具体问题的方法,使我在做实验过程中,对本学期的课程知识融会贯通。前期对pyspark交互式编程的知识巩固,对编写独立应用程序实现数据去重,以及编写独立应用程序实现求平均值问题。
      在本次遇到的错误比较少,在运行RDD编程时,一定要留意文件目录,以免出现同命名的文件,导致编译出错。
      希望在接下来的学习中,进一步对RDD编程的学习巩固加深,对Spark的RDD基本操作及键值对操作的学习还需要再接再厉,同时感谢老师的这学期的悉心指导。

参考文献

[1]林子雨、郑海山、赖永炫.《Spark编程基础(Python版)》[M]. 北京:人民邮电出版社,2020.
[2]林子雨.大数据技术原理与应用[M].北京:人民邮电出版社,2017.

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Nimizy

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值