默认以及按照好了Hadoop的环境和spark环境以及idea环境
- 打包到服务器运行
1.先右键运行一下WordCount.scala,运行成功后出现红色的info信息,等待几秒后即可关闭。不进行此步骤的话在服务器运行会出错。
2.点击右边的maven面板,双击lifecycle下的package即可打包
3.打包完成后的jar包在target目录下,将其上传到服务器,
然后在spark的bin目录下运行以下代码
./spark-submit --class spark.core.wc /hk1111/jar/spark_03-core-1.0-SNAPSHOT.jar
./spark-submit 这个表示安装spark的目录中的spark-submit
--class 表示主类入口,就是上图中的主类是spark.core.wc
/hk1111/jar/spark_03-core-1.0-SNAPSHOT.jar 表示本地jar包路径
最后输出信息
这是上面代码中编写的输出路径
然后查看结果