Spark 执行 spark-submit 提交jar包执行
[root@hadoop0 spark-2.1.0-bin-hadoop2.7]# bin/spark-submit --master spark://hadoop0:7077 --class org.apache.spark.examples.SparkPi examples/jars/spark-examples_2.11-2.1.0.jar 200
时报错如下:
报错: job没有接受任何资源;检查集群UI,确保workers已注册并拥有足够的资源。
我检查了集群机器的磁盘空间发现没问题,也去UI界面看了节点状态没问题:
但发现spark-shell开启着,于是本着试试看的态度,将spark-shell关闭后再执行spark-submit命令,发现可以执行了: