设置分区输出:
val rdd1: RDD[Int] = sc.parallelize(1 to 10,4)如果设置成4,则输出4个分区文件。
如果设置成5,则输出5个分区文件。
package com.dl.sparkhello
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}
object Interview {
def main(args: Array[String]): Unit = {
//创建sc
val conf: SparkConf = new SparkConf().setAppName("wc").setMaster("local[*]")
val sc = new SparkContext(conf)
//创建日志级别
sc.setLogLevel("WARN")
//2.创建RDD
val rdd1: RDD[Int] = sc.parallelize(1 to 10,4)
rdd1.foreach(x=>println(x))
println("--------")
rdd1.foreachPartition(x=>println(x.reduce(_+_)))
}
}