1。windows下测试Standlone模式,代码如下
object LocalCluster extends java.io.Serializable {
def main(args: Array[String]): Unit = {
System.setProperty("SPARK_HOME", "F:\\002-spark\\jiqun\\spark-2.1.1-bin-hadoop2.7");
// 本地模式运行,便于测试
val sparkConf = new SparkConf()
.setMaster("spark://192.168.10.84:7077")
.setAppName("aa")
.setJars(Seq("F:\\002-spark\\00-IDEAWork\\SparkOnHbaseScala\\out\\artifacts\\SparkOnHbaseScala_jar\\SparkOnHbaseScala.jar"))
val sc = new SparkContext(sparkConf)
val datas = Array(1, 2, 3, 7, 4, 5, 8)
var s = sc.parallelize(datas)
println(s.count())
}
}
开始测试的时