Spark学习记录|RDD分区的那些事

本文详细介绍了Spark中的RDD分区特性,包括分区列表、宽/窄依赖的概念,以及如何创建、查看和操作分区数据。重点讲解了mapPartitionsWithIndex、cartesian、groupByKey、repartition和coalesce等操作,结合实例分析了它们在处理数据时的差异和应用场景,旨在帮助读者深入理解Spark的并行计算机制。
摘要由CSDN通过智能技术生成

以前在工作中主要写Spark SQL相关的代码,对于RDD的学习有些疏漏。本周工作中学习了一些简单的RDD的知识,主要是关于RDD分区相关的内容。下面的内容都是自己亲身实践所得,如果有错误的地方,还希望大家批评指正。

本文的目录如下:

1、RDD特性-分区列表
2、宽/窄依赖
3、RDD的创建
4、查看分区数据:mapPartitionsWithIndex
5、笛卡尔积:cartesian
6、数据分组:groupByKey
7、重新分区:repartition VS coalesce
8、map Vs mapPartitions

在正式开始文章内容之前,先介绍一下咱们的背景。考虑一下机器学习中网格搜索策略,比如随机森林中,我们想得到n_estimators和max_depth两个参数的最优组合,我们会对给出的参数取值范围计算笛卡尔积,然后对每一种组合训练得到一个效果,并选取效果最好的一组参数。假设我们想使用spark把这个过程并行化,但是参数组合数量太多,没有足够的计算资源,只能一个task上运行几组参数。

举例来说,假设n_estimators有10个取值,max_depth有5个取值,共有5*10=50种组合,最好的方法就是并行50个task。但是由于资源不足,我们只能并行执行10个task,也就是说一个task上执行五组参数组合。

好了,介绍完了背景,是不是很简单?接下来就介绍一下在这一过程中的一些学习收获。

1、RDD特性-分区列表

Spark中的RDD是被分区的,每一个分区都会被一个计算任务(Task处理),分区数决定了并行计算的数量。

2、宽/窄依赖

RDD中的一些算子,会将一个RDD转换为另一个RDD,在这一过程中,由于RDD是分区的,就会产生不同的依赖关系,主要分为宽依赖和窄依赖。

2.1 窄依赖

窄依赖如下图所示:

先定义一下,上图中每一组中左边的称做父RDD、右边的称为子RDD,那么窄依赖就是说:每一个父RDD中的Partition最多被子RDD中的1个Partition所使用。窄依赖最常见的就是map算子。

2.2 宽依赖

宽依赖的示意图如下:

在宽依赖中,一个父RDD的Partition会被多个子RDD所使用。宽依赖也很常见,如我们下文要介绍的groupByKey和repartition。

介绍完一些简单的知识之后,我们开始进入正题了,你应该还没有忘记刚才的背景介绍吧!

3、RDD的创建

首先创建一个sparkSession的对象:

val spark = SparkSession
.builder()
.appName("Spark SQL basic example")
.enableHiveSupport()
.getOrCreate()

spark.sparkContext.setLogLevel("WARN")

接下来,咱们建立两个RDD,分别是n_estimators和max_depth对应的取值

val n_estimators = Array(10,20,30,40,50,60,70,80,90,100)
val max_depth = Array(3,4,5,6,7)

val n_estimators_rdd = spark.sparkContext.parallelize(n_estimators)
val max_depth_rdd = spark.sparkContext.parallelize(max_depth)

先来查看一下分区数量:

println(n_estimators_rdd.partitions.length)
println(max_depth_rdd.partitions.length)

输出为:

1
1

可以看到两个RDD的分区数量都是1,那是不是RDD的分区数量默认是1呢?答案当然是否定的,有关于RDD默认的分区数量,可以参考:https://www.jianshu.com/p/fe987f6d2018?utm_source=oschina-app

当然,我们也可以在创建时指定RDD的分区数量:

val n_estimators_rdd = spark.sparkContext.parallelize(n_estimators,10)
val max_depth_rdd = spark.sparkContext.parallelize(max_depth,5)

此时分区数量就是10和5了。

4、查看分区数据:mapPartitionsWithIndex

接下来你可能会想查看一下每个分区的内容,我们使用mapPartitionsWithIndex函数,先直接给出代码,随后再详细介绍:

n_estimators_rdd.mapPartitionsWithIndex((partid,iter)=>{
iter.map(n_estimator => {
println(partid + "," + n_estimator)
n_estimator
})
}).collect()

结果输出如下:

可以看到,每个分区对应了一个n_estimator的数值,关于上述代码,有以下几点需要注意的点:

1)mapPartitionsWithIndex对每一对(分区id,分区内容)进行操作,partid即是分区id,上面的iter即是分区内容。
2)分区内容iter是一个Iterator,在我们这里是Iterator[Int]类型的,对其每个元素进行查看,需要通过map操作。

5、笛卡尔积:cartesian

接下来,我们需要计算两组参数的笛卡尔积,RDD间的笛卡尔积操作示意图如下:

可以看到,经过笛卡尔积后的RDD的Partition数量应该是两个父RDD的分区数量的乘积:

val cartesian_rdd = n_estimators_rdd.cartesian(max_depth_rdd)
println(cartesian_rdd.partitions.length)

由于n_estimators_rdd的分区数量是10,max_depth_rdd的分区数量是5,因此cartesian_rdd的分区数量是50。

6、数据分组:groupByKey

在对n_estimators和max_depth计算笛卡尔积之后,我们已经得到了50组参数组合,并且分布在50个Partition上。无论是通过map还是mapPartitions去并行计算每组参数对应的GBDT拟合效果,都会创建50个task。如果我们只想要10个task,每个task去执行5组参数,那么需要对数据进行分组,使用groupByKey算子。代码如下:

val cartesian_grp_rdd = cartesian_rdd
.zipWithIndex()
.map(row=>(row._2 / 5,row._1))
.groupByKey()

对于上一节中得到的RDD,我们首先使用zipWithIndex()为其添加了编号,此时RDD中每一条数据分为两部分,假设一行用row表示,那么row._2 代表其对应的行号,row._1代表一组实验参数,类型为(Int,Int)。

接下来,使用map把我们的RDD转换成K-V形式的pairRDD,注意这里我们进行row._2 / 5,这样5条数据的Key相同。

最后通过groupByKey()对每5条数据进行了分组。接下来我们来看下经过groupByKey()操作后RDD的分区情况:

cartesian_grp_rdd.mapPartitionsWithIndex((partid,iter)=>{
iter.map(data => {
println(partid + "," +data)
data
})
}).collect()

输出如下:

可以看到,分区数量为10,但是,每个分区仅有一条数据,每条数据的Key是我们刚才计算的index,Value是一个包含5组实验参数的CompactBuffer。此时如果我们想对每组参数进行操作的话,还需要将数据转换为List,通过循环进行处理,如下:

cartesian_grp_rdd.mapPartitionsWithIndex((partid,iter)=>{
iter.map(data => {
println(partid + "," +data)
val dataList = data._2.toList
for(i <- 0 until dataList.length){
println("do something")
}
data
})
}).collect()

7、重新分区:repartition VS coalesce

看到这里,你可能会想,能不能不通过groupByKey()来对数据进行重新分区?这里我们介绍两种方法repartition和coalesce。

7.1 coalesce

先上代码:

val cartesian_coalesce_rdd = cartesian_rdd.coalesce(10)

cartesian_coalesce_rdd.mapPartitionsWithIndex((partid,iter)=>{
iter.map(data => {
println(partid + "," +data)
data
})
}).collect()

结果如下:

分区效果还不错,对吧。如果将一个分区较多的RDD重新分区为分区较少的RDD,默认的coalesce是不会进行shuffle过程的(参数中的shuffle默认值为false),其过程类似于如下,是一个分区之间相互组合的过程(窄依赖):

但是如果想要分区较少的RDD转换为分区较多的RDD,shuffle过程是会有的。

7.2 repartition

而对于repartition来说,它其实就是shuffle=True的coalesce过程,看源码也可以看出来:

def repartition(numPartitions: Int)(implicit ord: Ordering[T] = null): RDD[T] = withScope {
coalesce(numPartitions, shuffle = true)
}

先看一下repartition的分区效果:


val repartition_coalesce_rdd = cartesian_rdd.repartition(10)

repartition_coalesce_rdd.mapPartitionsWithIndex((partid,iter)=>{
iter.map(data => {
println(partid + "," +data)
data
})
}).collect()

感觉分区效果很乱啊,其背后的分区原理是什么呢?还是得看源码:

从源码中可以看出,它是基于HashPartitioner来进行分区的。HashPartitioner分区的原理很简单,对于给定的key,计算其hashCode,并除于分区的个数取余,如果余数小于0,则用余数+分区的个数,最后返回的值就是这个key所属的分区ID。

好了, 既然是基于Key分区的,那我们先给RDD搞一个Key,看看是不是按照我们的想法去进行分区的:

val repartition_coalesce_rdd = cartesian_rdd
.zipWithIndex()
.map(row=>(row._2 / 5,row._1))
.repartition(10)

repartition_coalesce_rdd.mapPartitionsWithIndex((partid,iter)=>{
iter.map(data => {
println(partid + "," +data)
data
})
}).collect()

输出如下:

结果并不是如我们所想,那么是为什么呢?原因在于repartition所使用的Key,并非是RDD中每一条数据的Key,而是它为每条数据重新生成了一个随机数,作为此条数据的Key:

所以,在将一个分区较多的RDD重新分区为分区较少的RDD时,尽量使用coalesce算子。

8、map Vs mapPartitions

好了,我们已经重新将数据分为10个分区了,接下来就是并行调度了,这里有两个方法,一个是map,一个是mapPartitions。二者有什么区别呢:

map是对rdd中的每一个元素进行操作;mapPartitions则是对rdd中的每个分区的迭代器进行操作。假设我们想把RDD中所有的数变为两倍,如果共有5个Partition,每个Partition有1万条数据。那么map操作会执行5万次function,而mapPartitions操作只会执行5次function。因此mapPartitions的性能较高。

但要注意的一点是,MapPartitions操作,对于大量数据来说,比如一个Partition有100万数据,一次传入一个function以后,那么可能一下子内存不够,但是又没有办法去腾出内存空间来,可能就OOM,内存溢出。

而在我们的场景中,选择mapPartitions即可。二者代码示例如下:

def doubleMap(a:(Int,Int))= { (a._1 * 2,a._2 * 3) }

cartesian_coalesce_rdd.map(
data=>{
doubleMap(data)
}
).foreach(println)
def doubleMapPartition( iter : Iterator[(Int,Int)]) = {
var res = List[(Int,Int)]()
while (iter.hasNext){
val cur = iter.next()
res .::= (cur._1 * 2, cur._2 * 3)
}
res.iterator
}

cartesian_coalesce_rdd.mapPartitions(
iter=>{
doubleMapPartition(iter)
}
).foreach(println)

注意,mapPartitions方法接受不了的是一个Iterator,返回也必须是一个Iterator。

好了,本文就整理到这里了!最后推荐一本spark不错的书吧:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值