Spark基于zookeeper的HA

Spark基于zookeeperHA

1.    准备

Zookeeper环境

参考:http://blog.csdn.net/mapengbo521521/article/details/41777721

Spark环境

参考:http://blog.csdn.net/mapengbo521521/article/details/49966677

2.    配置spark

进到spark的配置目录,在spark-env.sh修改如下

Export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop1:2181,spark2:2181 -Dspark.deploy.zookeeper.dir=/spark"

export JAVA_HOME=/home/hadoop/jdk/jdk1.7.0_21

#export SPARK_MASTER_IP= hadoop1

#export SPARK_MASTER_PORT=7077

export SPARK_WORKER_CORES=1

export SPARK_WORKER_INSTANCES=1

export SPARK_WORKER_MEMORY=1g

把这个配置文件分发到各个节点上去

scp spark-env.sh root@hadoop2: $SPARK_HOME /conf/

scp spark-env.sh root@hadoop3: $SPARK_HOME /conf/

 

启动spark集群

Sbin/start-all.sh

进入hadoop2节点,启动start-master.sh hadoop1节点挂掉时hadoop2顶上充当master

jps查看hadoop1 hadoop2 均存在Master进程

 

3.    测试HA是否生效

查看hadoop1 hadoop2 均存在Master进程,hadoop2处于待命状态

hadoop1上把master节点停掉 sbin/stop-master.sh

访问http://hadoop1:8080,发现已经挂掉。

访问http://hadoop2:8080,发现hadoop2已经已经接管了hadoop1成为主节点。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值