Spark的RDD转换算子-flatMap、glom、groupBy

Spark的RDD转换算子-flatMap、glom、groupBy

一、flatMap:

函数签名

def flatMap[U: ClassTag](f: T => TraversableOnce[U]): RDD[U] 

就是扁平映射处理,将处理的数据进行扁平化之后再进行映射处理

比如对于一个二维列表的操作,使其打散之后在变为一个列表

val dataRDD = sparkContext.makeRDD(List( 
    List(1,2),List(3,4) 
),1) 
val dataRDD1 = dataRDD.flatMap( 
    list => list 
) 

除了对列表的操作外,对字符串也可以操作

val dataRDD = sparkContext.makeRDD( 
	"hello Scala", "hello Spark"
),1) 
val dataRDD1 = dataRDD.flatMap( 
    //将打散的字符按照 " " 分割
    s => s.split(" ")
) 

二、glom:

函数签名

def glom(): RDD[Array[T]] 

将同一个分区的数据直接转换为相同类型的内存数组进行处理,分区不变

比如:计算所有分区最大值求和(分区内取最大值,分区间最大值求和)

val rdd: RDD[Int] = sc.makeRDD(List(1, 2, 3, 4), 2)

//分区内取最大值,分区间取和
val glomRDD: RDD[Array[Int]] = rdd.glom()

//每个分区取最大值
val maxRDD: RDD[Int] = glomRDD.map(
	array => {
		array.max
	}
)

//分区最大值求和
println(maxRDD.collect().sum)

三、groupBy:

函数签名

def groupBy[K](f: T => K)(implicit kt: ClassTag[K]): RDD[(K, Iterable[T])] 

将数据根据指定的规则进行分组, 分区默认不变,但是数据会被打乱重新组合,我们将这样的操作称之为 shuffle。极限情况下,数据可能被分在同一个分区中

一个组的数据在一个分区中,但是并不是说一个分区中只有一个组

比如:按照单词首字母分组

val groupRDD: RDD[(Char, Iterable{String})] = rdd.groupBy(_.charAt(0))

注意:

分组和分区没有必然的关系

groupBy会将数据打散,重新组合,这个操作我们称之为shuffle。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

牧码文

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值