- 博客(1)
- 收藏
- 关注
原创 Spark源代码解读之rdd分区策略
分区数量设置目录分区数量设置分区数据分配策略//创建RDDval rdd1 = sc.parallelize(seq)parallelize方法源码:def parallelize[T: ClassTag]( seq: Seq[T], numSlices: Int = defaultParallelism): RDD[T] = withScope { assertNotStopped() new ParallelCollectionRDD[T](th..
2021-10-27 15:35:05
893
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人