掌握RDD算子

一、RDD算子


RDD被创建后是只读的,不允许修改。Spark提供了丰富的用于操作RDD的方法,这些方法被称为算子。一个创建完成的RDD只支持两种算子:转化(Transformation)算子和行动(Action)算子。

二、准备工作
(一)准备文件
1、准备本地系统文件
在/home目录里创建words.txt

 

2、把文件上传到HDFS

  • words.txt上传到HDFS系统的/park目录里

 查看文件内容

 

(二)启动Spark Shell

1、启动HDFS服务

  • 执行命令:start-dfs.sh

 如果采用的是Spark on YARN集群或者Spark HA集群,那么还得启动YARN服务

 

2、启动Spark服务

  • 进入Spark的sbin目录执行命令:./start-all.sh

 

3、启动Spark Shell

  • 执行名命令: spark-shell --master spark://master:7077

 

2、映射算子案例

  • 预备工作:创建一个RDD - rdd1
  • 执行命令:val rdd1 = sc.parallelize(List(1, 2, 3, 4, 5, 6))

 

任务1、将rdd1每个元素翻倍得到rdd2

  • rdd1应用map()算子,将rdd1中的每个元素平方并返回一个名为rdd2的新RDD

  •  

  • 上述代码中,向算子map()传入了一个函数x = > x * 2。其中,x为函数的参数名称,也可以使用其他字符,例如a => a * 2。Spark会将RDD中的每个元素传入该函数的参数中。

  • 其实,利用神奇占位符_可以写得更简洁

  • rdd1rdd2中实际上没有任何数据,因为parallelize()map()都为转化算子,调用转化算子不会立即计算结果。 

  •  

  • 若需要查看计算结果,则可使用行动算子collect()。(collect是采集或收集之意)

  • 执行rdd2.collect进行计算,并将结果以数组的形式收集到当前Driver。因为RDD的元素为分布式的,数据可能分布在不同的节点上。

  •  

    任务2、将rdd1每个元素平方得到rdd2

  • 方法一、采用普通函数作为参数传给map()算子
  • 方法二、采用下划线表达式作为参数传给map()算子
  • 刚才翻倍用的是map(_ * 2),很自然地想到平方应该是map(_ * _)

 

 但是有点美中不足,rdd2的元素变成了双精度实数,得转化成整数

 二)过滤算子 - filter()
1、过滤算子功能
filter(func):通过函数func对源RDD的每个元素进行过滤,并返回一个新RDD,一般而言,新RDD元素个数会少于原RDD。
2、过滤算子案例
任务1、过滤出列表中的偶数
基于列表创建RDD,然后利用过滤算子得到偶数构成的新RDD
方法一、将匿名函数传给过滤算子

 方法二、用神奇占位符改写传入过滤算子的匿名函数

 

任务2、过滤出文件中包含spark的行

  • 查看源文件/park/words.txt内容

  • 执行命令: val lines= sc.textFile("hdfs://master:9000/park/words.txt"),读取文件 /park/words.txt生成RDD - lines
     

     执行命令:sparkLines.collect(),查看sparkLines内容,可以采用遍历算子,分行输出内容太

  •  

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值