缩减分区
Test 1:
package test.wyh.wordcount
import org.apache.spark.{SparkConf, SparkContext}
object TestCoalEsce {
def main(args: Array[String]): Unit = {
//建立Spark连接
val sparkConf = new SparkConf().setMaster("local").setAppName("TestWordCountApp")
val sc = new SparkContext(sparkConf)
//原本4个分区
val rdd = sc.makeRDD(List(1, 2, 3, 4), 4)
//缩减为两个分区
val coalesceRDD = rdd.coalesce(2)
coalesceRDD.saveAsTextFile("output")
//关闭连接
sc.stop()
}
}
运行结果:
原来RDD中的前两个元素被分到了一个分区,后两个元素被分到了一个分区。