Spark之配置HA

配置Spark的HA

一、修改spark-env.sh的配置文件

1.1、每个结点添加如下配置

#配置HA, 主要配置spark.deploy.recoveryMode指定zookeeper,及zookeeper.url
#同时要配置 SPARK_MASTER_IP 为slave1, 为本机hostname或ip
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master:3384,slave1:3384,slave2:3384"

1.2、在standby结点上修改SPARK_MASTER_IP为本节点ip或hostname

如设置slave1为standby

export SPARK_MASTER_IP=slave1

1.3、在master节点上启动所有节点

cd /opt/spark-1.6.1-bin-hadoop2.6/spark-1.6.1-bin-hadoop2.6/sbin
./start-all.sh 

http://192.168.1.224:8080/

这里写图片描述

1.4、在standby节点上启动一个master进程

cd /opt/spark-1.6.1-bin-hadoop2.6/spark-1.6.1-bin-hadoop2.6/sbin
./start-master.sh 

这里写图片描述

二、启动一个程序

cd /opt/spark-1.6.1-bin-hadoop2.6/spark-1.6.1-bin-hadoop2.6/bin
./spark-shell --master spark://slave1:7077 

在spark的web界面可以看到运行的application

这里写图片描述

三、切换master

3.1、在ALive的节点, 杀死master进程

[root@master spark-1.6.1-bin-hadoop2.6]# ./sbin/stop-master.sh    
stopping org.apache.spark.deploy.master.Master
[root@master spark-1.6.1-bin-hadoop2.6]# pwd
/opt/spark-1.6.1-bin-hadoop2.6/spark-1.6.1-bin-hadoop2.6
[root@master spark-1.6.1-bin-hadoop2.6]# 

Alive的master死掉

3.2、经过延时, standby节点变成Alive, 已经运行的appication将会切到新的master上。

这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值