spark transform系列__mapPartitions

本文详细介绍了Spark中的两个转换操作:mapPartitions和mapPartitionsWithIndex。mapPartitions针对每个分区的迭代器进行处理,而map则对每个记录应用函数。mapPartitionsWithIndex除了提供迭代器外,还提供了分区的索引,允许更细粒度的操作。文章还解析了这两个操作的函数定义,强调了它们在处理数据时的差异。
摘要由CSDN通过智能技术生成

mapPartitions/mapPartitionsWithIndex

这两个transform中:mapPartitions与map的区别是map中是对每个partition中的iterator执行map操作,对map过程中的每一条record进行传入的function的处理,而mapPartitions是把partition中整个iterator传给function进行处理.如果是map操作,你并不能知道这个iterator什么时候结束,但mapPartitions时给你的是一个iterator,所以你的函数中知道这个iterator什么时候会结束.而mapPartitionsWithIndex的函数是在mapPartitions的基础上,多了一个传入参数,这个传入参数就是对应的partition的index.

mapPartitions的函数定义:

def mapPartitions[U: ClassTag](

这个函数的定义部分为一个参数,是对应partition的数据的iterator,
    f: Iterator[T] => Iterator[U],

这个参数false表示在生成的MapPartitionsRDD中不包含partitioner算子.
    preservesPartitioning: Boolean false): RDD[U] = withScope {
  val cleanedF = sc.clean(f)

直接生成一个MapPartitionsRDD,在生成这个rdd时,通过传入的function,这个function与map对应的function不同的是,function直接拿到一个iterator进行操作.
  new MapPartitionsRDD(
    this,
    (context: TaskContextindex: Intiter: Iterator[T]) => cleanedF(iter),
    preservesPartitioning)
}

 

mapPartitionsWithIndex的函数定义:

这个函数的处理方法可以看到与mapPartitions基本上相同,不同的地方是f(function)的定义部分,此部分多出一个int类型的参数,这个参数是对应的iterator所在的partition的index.

def mapPartitionsWithIndex[U: ClassTag](
    f: (Int, Iterator[T]) => Iterator[U],
    preservesPartitioning: Boolean false): RDD[U] = withScope {
  val cleanedF = sc.clean(f)
  new MapPartitionsRDD(
    this,
    (context: TaskContextindex: Intiter: Iterator[T]) => cleanedF(indexiter),
    preservesPartitioning)
}

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值