Spark HA 搭建

30 篇文章 0 订阅
3 篇文章 0 订阅

修改spark-env.sh配置文件

export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=centos01:2181,centos02:2181,centos03:2181 -Dspark.deploy.zookeeper.dir=/spark"
  • spark.deploy.zookeeper.url:指定ZooKeeper集群各节点的主机名与端口
  • spark.deploy.zookeeper.dir:指定Spark在ZooKeeper中注册的znode节点名称

同步配置文件

scp conf/spark-env.sh hadoop@centos02:/opt/modules/spark-2.4.0-bin-hadoop2.7/conf/
scp conf/spark-env.sh hadoop@centos03:/opt/modules/spark-2.4.0-bin-hadoop2.7/conf/

启动ZooKeeper集群

在三台服务器上:

bin/zkServer.sh start

启动Spark集群

centos01

sbin/start-all.sh

centos02

sbin/start-all.sh

查看各节点进程

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

测试Spark HA

进入Spark Web界面查看两个Master的状态,此时centos01节点Master的状态为ALIVE,(即active活动状态):
在这里插入图片描述

centos02节点Master的状态为STANDBY状态,(即备用状态):

在这里插入图片描述

使用 kill -9 命令杀掉centos01节点的Master进程,稍等几秒后多次刷centos02节点的Web界面,发现Master的状态由STANDBY状态变为RECOVERING(恢复,该状态持续的时间非常短暂),最后变为ALIVE:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

此时,若需要连接Spark集群执行操作,--master参数的连接地址需要改为spark://centos02:7077

bin/spark-shell --master spark://centos02:7077

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值