spark transform系列__mapPartitions

mapPartitions/mapPartitionsWithIndex

这 两个transform中:mapPartitions与map的区别是map中是对每个partition中的iterator执行map操作,对 map过程中的每一条record进行传入的function的处理,而mapPartitions是把partition中整个iterator传给 function进行处理.如果是map操作,你并不能知道这个iterator什么时候结束,但mapPartitions时给你的是一个 iterator,所以你的函数中知道这个iterator什么时候会结束.而mapPartitionsWithIndex的函数是在 mapPartitions的基础上,多了一个传入参数,这个传入参数就是对应的partition的index.

mapPartitions的函数定义:

def mapPartitions[U: ClassTag](

这个函数的定义部分为一个参数,是对应partition的数据的iterator,
    f: Iterator[T] => Iterator[U],

这个参数false表示在生成的MapPartitionsRDD中不包含partitioner算子.
    preservesPartitioning: Boolean false): RDD[U] = withScope {
  val cleanedF = sc.clean(f)

直接生成一个MapPartitionsRDD,在生成这个rdd时,通过传入的function,这个function与map对应的function不同的是,function直接拿到一个iterator进行操作.
  new MapPartitionsRDD(
    this,
    (context: TaskContextindex: Intiter: Iterator[T]) => cleanedF(iter),
    preservesPartitioning)
}

 

mapPartitionsWithIndex的函数定义:

这个函数的处理方法可以看到与mapPartitions基本上相同,不同的地方是f(function)的定义部分,此部分多出一个int类型的参数,这个参数是对应的iterator所在的partition的index.

def mapPartitionsWithIndex[U: ClassTag](
    f: (Int, Iterator[T]) => Iterator[U],
    preservesPartitioning: Boolean false): RDD[U] = withScope {
  val cleanedF = sc.clean(f)
  new MapPartitionsRDD(
    this,
    (context: TaskContextindex: Intiter: Iterator[T]) => cleanedF(indexiter),
    preservesPartitioning)
}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值