大数据IMF传奇行动绝密课程第12课:HA下的Spark集群工作原理解密

HA下的Spark集群工作原理解密

Zookeeper中包含的内容有哪些:所有的Worker Driver Application
图12-1 Spark高可用HA架构
下载Zookeeper
环境变量:

export ZOOKEEPER_HOME=

加入PATH
解压并创建logs/ 和data/

cp conf/zoo_sample.cfg conf/zoo.cfg
vi conf/zoo.cfg
#加入/修改以下内容
dataDir=/home/hadoop/zookeeper-3.4.6/data
dataLogDir=/home/hadoop/zookeeper-3.4.6/logs
server.0=Master:2888:3888
server.1=Worker1:2888:3888
server.2=Worker2:2888:3888
cd data/
echo 0 > myid

#拷贝到其他机器
scp -r zookeeper-3.4.6 hadoop@Worker1:/home/hadoop/
scp -r zookeeper-3.4.6 hadoop@Worker2:/home/hadoop/

#修改Worker1和Worker2的myid

启动:

bin/zkServer.sh start

#spark支持zookeeper
cd $SPARK_HOME/conf
vi spark-env.sh
注释掉#SPARK_MASTER_ID并加入以下内容:
SPARK_DAEMON_JAVA_OPT="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.u
rl=Master:2181,Worker1:2181,Worker2:2181 -Dspark.deploy.zookeeper.dir=/spark"

scp $SPARK_HOME/conf/spark-env.sh hadoop@Worker1:$SPARK_HOME/conf/
scp $SPARK_HOME/conf/spark-env.sh hadoop@Worker2:$SPARK_HOME/conf/

#启动Master上面的Spark

#启动Worker1和Worker2的Spark,这时Worker1和Worker2的jps中有Master进程,并且在控制台中能看到状态为Standby

提交任务要给三台机器

./spark-shell --master spark://Master:7077,Worker1:7077,Worker2:7077

把Master的Spark停掉以后,zookeeper会重新选择新的Master,例如为Worker1,如果重新打开Master的Spark后则不会重新变为Active的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值