【spark】Spark算子:RDD基本转换操作–map、flagMap、distinct

本文详细介绍了Spark中的RDD转换操作,包括map函数如何将每个数据项映射为新元素,保持输入与输出分区的一一对应;flatMap在处理字符串时会将其视为字符数组并扁平化;以及distinct算子用于去除RDD中的重复元素。同时,文章提醒在使用flatMap时注意返回值类型,避免意外的扁平化操作。
摘要由CSDN通过智能技术生成
  • map

将一个RDD中的每个数据项,通过map中的函数映射变为一个新的元素。

输入分区与输出分区一对一,即:有多少个输入分区,就有多少个输出分区。

 
 
 
  1. hadoop fs -cat /tmp/lxw1234/1.txt
  2. hello world
  3. hello spark
  4. hello hive
  5.  
  6.  
  7. //读取HDFS文件到RDD
  8. scala> var data = sc.textFile("/tmp/lxw1234/1.txt")
  9. data: org.apache.spark.rdd.RDD[String] = MapPartitionsRDD[1] at textFile at :21
  10.  
  11. //使用map算子
  12. scala> var mapresult = data.map(line => line.split("\\s+"))
  13. mapresult: org.apache.spark.rdd.RDD[Array[String]] = MapPartitionsRDD[2] at map at :23
  14.  
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值