[学习笔记,欢迎指正]
1、我启动了hadoop,这么小的程序不需要启动。
使用单机local模式提交任务
local模式也就是本地模式,也就是在本地机器上单机执行程序。使用这个模式的话,并不需要启动Hadoop集群,也不需要启动Spark集群,只要有一台机器上安装了JDK、Scala、Spark即可运行。
cmd命令:
cd D:\hadoop-2.8.3\sbin
d:
start-all.cmd
能够看到四个窗口都跑起来了并且不报错。
采坑:
我的hadoop又重新配置了好久,参考攻略https://www.cnblogs.com/chevin/p/9090683.html
2、启动spark使用spark-submit命令:
cd d:\spark
spark-submit --class org.apache.spark.examples.SparkPi --master local examples/jars/spark-examples_2.11-2.4.3.jar
这是使用本地模式启动