【问题解决】Spark集群,通过master节点执行start-all.sh启动slave报错

原创 2018年04月17日 20:14:30

Spark集群,通过master节点执行start-all.sh启动slave报错:./sbin/start-all.sh

所以最初我搭建完Spark集群后,一直是分别执行master和各slave的脚本来进行启动的:

启动master:

./sbin/start-master.sh -h 192.168.3.207 --host 192.168.3.207

启动slave:

/sbin/start-slave.sh spark://192.168.3.207:7077

而且各操作都是在各自的机器上。

今天同事说正常应该是直接通过master节点,直接start-all就可以启动所有节点。

我在master启动全部时,报错如下:

$ ../sbin/start-all.sh
starting org.apache.spark.deploy.master.Master, logging to /home/ubutnu/spark_2_2_1/logs/spark-ubutnu-org.apache.spark.deploy.master.Master-1-ubutnu-Super-Server.out
192.168.3.104: bash: 第 0 行: cd: /home/ubutnu/spark_2_2_1: 没有那个文件或目录
192.168.3.104: bash: /home/ubutnu/spark_2_2_1/sbin/start-slave.sh: 没有那个文件或目录
192.168.3.102: bash: 第 0 行: cd: /home/ubutnu/spark_2_2_1: 没有那个文件或目录
192.168.3.102: bash: /home/ubutnu/spark_2_2_1/sbin/start-slave.sh: 没有那个文件或目录

关键点:路径找不到,是192.168.3.102和104报的。因为master机器只配了各slave的ip,并不知道他们的spark安装路径,所以我猜测master是按本机的路径去调,但可惜spark在另外两台的目录和master并不一样,因此就找不到指定的路径了。

解决办法:将所有slave机器的spark路径改成和master一致,便可解决。

$ ./start-all.sh 
starting org.apache.spark.deploy.master.Master, logging to /home/ubutnu/spark_2_2_1/logs/spark-ubutnu-org.apache.spark.deploy.master.Master-1-ubutnu-Super-Server.out
192.168.3.104: starting org.apache.spark.deploy.worker.Worker, logging to /home/ubutnu/spark_2_2_1/logs/spark-he-org.apache.spark.deploy.worker.Worker-1-he-V660.out
192.168.3.102: starting org.apache.spark.deploy.worker.Worker, logging to /home/ubutnu/spark_2_2_1/logs/spark-he-org.apache.spark.deploy.worker.Worker-1-he-200.out
但是打开webui页面,URL仍然是带主机名的:URL: spark://ubutnu-Super-Server:7077

而且worker机器报错:

18/04/17 17:03:33 INFO Worker: Spark home: /home/ubutnu/spark_2_2_1
18/04/17 17:03:33 INFO Utils: Successfully started service 'WorkerUI' on port 8081.
18/04/17 17:03:33 INFO WorkerWebUI: Bound WorkerWebUI to 192.168.3.102, and started at http://192.168.3.102:8081
18/04/17 17:03:33 INFO Worker: Connecting to master ubutnu-Super-Server:7077...
18/04/17 17:03:38 WARN TransportClientFactory: DNS resolution for ubutnu-Super-Server:7077 took 5028 ms
18/04/17 17:03:38 WARN Worker: Failed to connect to master ubutnu-Super-Server:7077
Caused by: java.io.IOException: Failed to connect to ubutnu-Super-Server:7077

解决办法:将master和slave各机器的conf/spark-env.sh加上:
export SPARK_MASTER_HOST=192.168.3.207

总结:

master直接启动所有节点:./sbin/start-all.sh

master直接停止所有节点:./sbin/stop-all.sh

Spark使用start-slave.sh启动Worker

通过start-slave.sh脚本手动启动worker时遇到的问题
  • oreohhxxcsdn
  • oreohhxxcsdn
  • 2017-12-21 16:20:29
  • 239

找不到或无法加载主类 org.apache.hadoop.hdfs.server.namenode.NameNode 问题解决

hadoop的格式化的时候报这个异常"找不到或无法加载主类 org.apache.hadoop.hdfs.server.namenode.NameNode" 网上很多原因,也确实有很多原因导致这个...
  • dzl84394
  • dzl84394
  • 2017-05-17 19:16:39
  • 1820

jenkins 启动slave,出现com.sun.deploy.net.FailedDownloadException: Unable to load resource

jenkins 启动slave,出现com.sun.deploy.net.FailedDownloadException: Unable to load resource: http://127.0....
  • achang21
  • achang21
  • 2015-04-20 14:53:59
  • 4898

spark集群其中一个节点没有启动成功

Spark Command: /usr/java/jdk1.7/bin/java -cp ::/home/hadoop2/spark/spark-1.0.0/conf:/home/hadoop2/sp...
  • smallboy2011
  • smallboy2011
  • 2014-07-19 17:23:51
  • 2017

Spark集群master节点实现HA配置

Spark集群master节点实现HA配置,standalone模式的Spark集群构架为master-slave的架构,master可以实现类似HDFS2.0之后基于Zookeeper的HA,主备切...
  • kwu_ganymede
  • kwu_ganymede
  • 2016-01-30 21:50:16
  • 2496

执行start-all.sh后,datanode没有启动

2014-08-19 18:43:42,751 INFO org.apache.hadoop.ipc.Server: IPC Server Responder: starting 2014-08-19...
  • panguoyuan
  • panguoyuan
  • 2014-08-20 09:46:28
  • 3236

Spark Standalone如何通过start-all.sh启动集群

Spark Standalone如何通过start-all.sh启动集群 1.start-all.sh脚本分析 图1 start-all.sh部分内容 我们可以从...
  • xiaoshunzi111
  • xiaoshunzi111
  • 2016-11-16 08:38:42
  • 736

Spark集群启动命令汇总

Spark集群启动命令汇总
  • kwu_ganymede
  • kwu_ganymede
  • 2016-05-18 17:24:24
  • 4755

Hadoop之——执行start-all.sh时namenode没有启动

最近遇到了一个问题,执行start-all.sh的时候发现JPS一下namenode没有启动         每次开机都得重新格式化一下namenode才可以         其实问题就出在tmp...
  • l1028386804
  • l1028386804
  • 2015-06-03 23:38:54
  • 5434

Spark:通过start-slaves.sh脚本启动worker报错:Permission denied

背景信息: Spark两个节点,主机名分别为master和slave,$SPARK_HOMR/conf/slaves配置了两条记录:两行分别为master和slave。 错误描述: 但是启动的时...
  • wiborgite
  • wiborgite
  • 2017-07-18 16:30:03
  • 1012
收藏助手
不良信息举报
您举报文章:【问题解决】Spark集群,通过master节点执行start-all.sh启动slave报错
举报原因:
原因补充:

(最多只允许输入30个字)