文章地址:http://www.haha174.top/article/details/252432
项目源码:https://github.com/haha174/spark.git
提交到spark 集群上面去运行 与本地有点不同
/**
* 如果提交集群只需要修改两个地方
* 第一删除setMaster
* 第二 hadf 上面的文件
*/
val sparkConf = new SparkConf().setAppName("WorldCount");
/**
*
* 1 将world-count.txt 上传到hdfs
* 2 maven 打包
* 3 编写提交脚本
*/
将world-count.txt 上传到hdfs 如果不会可以参考 http://www.haha174.top/article/details/254272
脚本
/spark/spark-2.2.1-bin-hadoop2.7/bin/spark-submit –class spark.core.WorldCountLocal –num-executors 3 –driver-memory 1g –executor-memory 1g –executor-cores 3 –master spark://192.168.1.221:7077 /data/spark-submit/scala/world-count-scala/spark-world-count-scala-submit-1.0-SNAPSHOT-jar-with-dependencies.jar