linux普通用户开发spark程序时,由于无法使用IDEA的图形化操作界面,所以只能大包围jar,用spark-submit提交,不是很方便, spark的local模式可以方便开发者在本地调试代码,而不用打包为jar用spark-submit提交运行,或是在spark-shell中逐行运行,下面是在windows上运行sparkPi的代码及结果
package com
import scala.math.random
import org.apache.spark._
object localSpark {
def main(args: Array[String]) {
val conf=new SparkConf().setMaster("local[3]")
.setAppName("Spark Pi")
.set("spark.ui.port", "9995"