在01的基础上操作
spark的HA是基础zookeeper的,所以在这之前先搭建好zookeeper集群
编辑conf目录下的spark-env.sh文件,添加zookeeper配置信息,然后把SPARK_MASTER_HOST注释掉.
![](https://i-blog.csdnimg.cn/blog_migrate/349ff372ef0b577839532976aa85be4d.png)
export SPARK_DAEMON_JAVA_OPTS="
-Dspark.deploy.recoveryMode=ZOOKEEPER
-Dspark.deploy.zookeeper.url=hadoop-senior01.buba.com:2181,hadoop-senior02.buba.com:2181,hadoop-senior03.bub
a.com:2181
-Dspark.deploy.zookeeper.dir=/spark"
把三台节点的都按照上面进行配置,配置完后,先启动zookeeper集群
![](https://i-blog.csdnimg.cn/blog_migrate/6134f5cdcd168ec63028b12841daafb7.png)
然后在1节点上启动start-all.sh
![](https://i-blog.csdnimg.cn/blog_migrate/a592d437f8b252a280d9ddb3eba2baa7.png)
但是2节点和3节点还是worker
![](https://i-blog.csdnimg.cn/blog_migrate/9c5fc08d1262e427202b68296906098d.png)
在2节点上执行下面命令启动master,现在就有俩master了,其实第三台机器也可以启动master
![](https://i-blog.csdnimg.cn/blog_migrate/f1a5d77aa30591a20187422f0159a6c1.png)
![](https://i-blog.csdnimg.cn/blog_migrate/02724da04e00ae538c0699c45f7c3cef.png)
20节点就是活着的,21节点就是备用的
![](https://i-blog.csdnimg.cn/blog_migrate/9a02e38edba272884e48795f67f279fc.png)
![](https://i-blog.csdnimg.cn/blog_migrate/ac53c02a564585ddd1830c3148d5972c.png)
现在把20节点master杀掉
![](https://i-blog.csdnimg.cn/blog_migrate/33fe6ba7eccea90f1a7a2c16111addaf.png)
等一会儿21节点就变为master了
![](https://i-blog.csdnimg.cn/blog_migrate/1f89efff4217638b1db1e87869a756bf.png)