SPARK中的map三大算子用法解析和实例操作
val conf = new SparkConf().setAppName("RDD").setMaster("local[2]")
val sc = new SparkContext(conf)
sc.setLogLevel("ERROR")
val tt = true;
var list = List[String]("a","b","c")
/**
* RDD创建方式
* 指定分区数 默认分区策略为HASH分区策略,按照取模进行分区分配
.
原创
2021-09-23 20:33:07 ·
2000 阅读 ·
0 评论