Spark HA配置

版本配置:

spark-2.1.1-bin-hadoop2.7.tgz

hadoop2.7.3

zookeeper-3.4.10

 

架构图:

在前面 ZookeeperSpark JobHistoryServer配置Spark Standalone模式与测试 的基础上:

该文章配置的HA是针对Standalone模式的。

1)zookeeper 正常安装并启动
2)修改 spark-env.sh 文件添加如下配置:

注释掉如下内容:

#SPARK_MASTER_HOST=hadoop102
#SPARK_MASTER_PORT=7077

添加上如下内容:

export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master,slave1,slave2,slave3 -Dspark.deploy.zookeeper.dir=/spark"

3)分发配置文件
[root@master conf]#  xsync spark-env.sh

我使用的是scp
4)在 (master 机器)上关闭启动全部节点

[root@master spark-2.1.1-bin-hadoop2.7]# sbin/stop-all.sh
[root@master spark-2.1.1-bin-hadoop2.7]# sbin/start-all.sh
5)slave1上单独启动 (Master 节点)
[root@slave1 spark-2.1.1-bin-hadoop2.7]# sbin/start-master.sh

 

6)spark HA 集群访问

在 /usr/local/BigDataApp/spark-2.1.1-bin-hadoop2.7 目录下:
bin/spark-shell \ --master spark://master:7077,slave1:7077 \ --executor-memory 2g \ --total-executor-cores 2

测试:把master机器上的Master停掉,看看是否slave1机器上的Master状态是否从STANDBY变为ALIVE

然后在master机器上重新启动下Master   sbin/start-master.sh

测试成功!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值