大数据Spark入门案例4–RDD 转换算子Key-Value类型(scala版本)
大数据Spark入门案例43–RDD 转换算子Key-Value类型(scala版本)文章目录1.1 partitionBy()1.2 reduceByKey()1.3 groupByKey()1.4 groupByKey(K)(A,B)1.5 foldByKey(K)(A)1.6 combineByKey(A,B,C)1.1 partitionBy()将数据按照指定类型重新进行分区,Spark 默认的分区器是 HashPartitioner//将三个分区数据按照HashPartitioner分
复制链接