Spark算子:RDD基本转换操作(1)–map、flagMap、distinct

  • map

将一个RDD中的每个数据项,通过map中的函数映射变为一个新的元素。

输入分区与输出分区一对一,即:有多少个输入分区,就有多少个输出分区。

 
 
  1. hadoop fs -cat /tmp/lxw1234/1.txt
  2. hello world
  3. hello spark
  4. hello hive
  5.  
  6.  
  7. //读取HDFS文件到RDD
  8. scala> var data = sc.textFile("/tmp/lxw1234/1.txt")
  9. data: org.apache.spark.rdd.RDD[String] = MapPartitionsRDD[1] at textFile at :21
  10.  
  11. //使用map算子
  12. scala> var mapresult = data.map(line => line.split("\\s+"))
  13. mapresult: org.apache.spark.rdd.RDD[Array[String]] = MapPartitionsRDD[2] at map at :23
  14.  
  15. //运算map算子结果
  16. scala> mapresult.collect
  17. res0: Array[Array[String]] = Array(Array(hello, world), Array(hello, spark), Array(hello, hive))
  18.  
  19.  
  • flatMap

属于Transformation算子,第一步和map一样,最后将所有的输出分区合并成一个。

 
 
  1. /使用flatMap算子
  2. scala> var flatmapresult = data.flatMap(line => line.split("\\s+"))
  3. flatmapresult: org.apache.spark.rdd.RDD[String] = MapPartitionsRDD[3] at flatMap at :23
  4.  
  5. //运算flagMap算子结果
  6. scala> flatmapresult.collect
  7. res1: Array[String] = Array(hello, world, hello, spark, hello, hive)
  8.  

使用flatMap时候需要注意:
flatMap会将字符串看成是一个字符数组。
看下面的例子:

 
 
  1. scala> data.map(_.toUpperCase).collect
  2. res32: Array[String] = Array(HELLO WORLD, HELLO SPARK, HELLO HIVE, HI SPARK)
  3. scala> data.flatMap(_.toUpperCase).collect
  4. res33: Array[Char] = Array(H, E, L, L, O, , W, O, R, L, D, H, E, L, L, O, , S, P, A, R, K, H, E, L, L, O, , H, I, V, E, H, I, , S, P, A, R, K)
  5.  

再看:

 
 
  1. scala> data.map(x => x.split("\\s+")).collect
  2. res34: Array[Array[String]] = Array(Array(hello, world), Array(hello, spark), Array(hello, hive), Array(hi, spark))
  3.  
  4. scala> data.flatMap(x => x.split("\\s+")).collect
  5. res35: Array[String] = Array(hello, world, hello, spark, hello, hive, hi, spark)
  6.  

这次的结果好像是预期的,最终结果里面并没有把字符串当成字符数组。
这是因为这次map函数中返回的类型为Array[String],并不是String。
flatMap只会将String扁平化成字符数组,并不会把Array[String]也扁平化成字符数组。

参考:
http://alvinalexander.com/scala/collection-scala-flatmap-examples-map-flatten

  • distinct

对RDD中的元素进行去重操作。

 
 
  1. scala> data.flatMap(line => line.split("\\s+")).collect
  2. res61: Array[String] = Array(hello, world, hello, spark, hello, hive, hi, spark)
  3.  
  4. scala> data.flatMap(line => line.split("\\s+")).distinct.collect
  5. res62: Array[String] = Array(hive, hello, world, spark, hi)
  6.  

如果觉得本博客对您有帮助,请 赞助作者 。

转载请注明:lxw的大数据田地 » Spark算子:RDD基本转换操作(1)–map、flagMap、distinct

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值