pyspark RDD 实验

(1)该系一共多少名学生。

line=sc.textFile("file:///opt/")
rdd=line.map(lambda x:x.split(",")).map(lambda x:x[0])
sum=rdd.distinct()
sum.count()

(2)该系共开设多少门课程

line=sc.textFile("file:///opt/")
rdd=line.map(lambda x:x.split(",")).map(lambda x:x[1])
sum=rdd.distinct()
sum.count()

(3)Tom同学的总成绩平均分是多少。

#导入
line=sc.textFile("file:///opt/")
rdd2=line.map(lambda x:x.split(",")).filter(lambda x:x[0]=="Tom")
rdd2.foreach(print)

若出现如下错误
则加上

from __future__ import print_function

在这里插入图片描述

#统计
sc=rdd2.map(lambda x:int(x[2]))
sum=rdd2.count()
nums=sc.reduce(lambda x,y:x+y)
avgs=nums/sum
print(avgs)

(4)每名同学的选修的课程门数。

line=sc.textFile("file:///opt/")
rdd3=line.map(lambda x:x.split(",")).map(lambda x:(x[0],1))
sums2=rdd3.reduceByKey(lambda x,y:x+y)
sums2.foreach(print)

(5)该系DataBase课程共有多少人选修。

line=sc.textFile("file:///opt/")
rdd5=line.map(lambda x:x.split(",")).filter(lambda x:x[1]=="DataBase")
rdd5.count()

(6)各门课程的平均分是多少。

line=sc.textFile("file:///opt/")
rdd6=line.map(lambda x:x.split(",")).map(lambda x:(x[1],(int(x[2]),1)))
sum6=rdd6.reduceByKey(lambda x,y:(x[0]+y[0],x[1]+y[1]))
avg2=sum6.map(lambda x:(x[0],round(x[1][0]/x[1][1],2)))
avg2.foreach(print)

(7)使用累加计算共有多少人选修DataBase这门课。

line=sc.textFile("file:///opt/")
rdd7=line.map(lambda x:x.split(",")).filter(lambda x:x[1]=="DataBase")
sum7=sc.accumulator(0)
rdd7.foreach(lambda x:sum7.add(1))
sum7.value

生成随机数据

去重
如果直接 运行python脚本会 少pyspark的包
则提交到python-submit
在这里插入图片描述

#!/user/bin/env python3
from pyspark import SparkConf,SparkContext

conf=SparkConf().setMaster("local").setAppName("CPayment")
sc=SparkContext(conf=conf)
line1=sc.textFile("file:///opt/.../A.txt")
line2=sc.textFile("file:///opt/.../B.txt")
line3=line1.union(line2)
distinct_line3=line3.distinct()
res=distinct_line3.sortBy(lambda x:x)
res.repartition(1).saveAsTextFile("file:///opt.../result")

求平均值

#!/user/bin/env python
from pyspark import SparkConf,SparkContext

conf=SparkConf().setMaster("local").setAppName("AVGPartemnt")

sc=SparkContext(conf=conf)
line1=sc.textFile("file:///opt/../datas/Algorithm.txt")
line2=sc.textFile("file:///opt/.../datas/DataBase.txt")
line3=sc.textFile("file:///opt/../datas/Python.txt")

lines=line1.union(line2).union(line3)

database=lines.map(lambda x:x.split(" ")).map(lambda x:(x[0],(int(x[1]),1)))
res=database.reduceByKey(lambda x,y:(x[0]+y[0],x[1]+y[1]))
result=res.map(lambda x:(x[0],round((x[1][0]*1.0)/x[1][1],2)))
result.repartition(1).saveAsTextFile("file:///opt/../datas/avg")
  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值