Spark HA的实现

分布式的HA

1.基于文件系统的单点恢复(注意:不能用于生产,主要用于开发和测试)

    主要用于开发或测试环境。当spark提供目录保存spark Application和worker的注册信息,并将他们的恢复状态写入该目录中,这时,一旦Master发生故障,就可以通过重新启动Master进程(sbin/start-master.sh),恢复已运行的spark Application和worker的注册信息。

    基于文件系统的单点恢复,主要是在spark-env.sh里对SPARK_DAEMON_JAVA_OPTS设置

配置参数参考值
spark.deploy.recoveryMode设置为FILESYSTEM开启单点恢复功能,默认值:NONE
spark.deploy.recoveryDirectorySpark 保存恢复状态的目录
(1)在spark-env.sh中添加
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=FILESYSTEM -Dspark.deploy.recoveryDirectory=/opt/module/spark-2.1.0-bin-hadoop2.7/recovery"
(2)测试:

a.在hadoop1上启动Spark集群
b.在hadoop2上启动spark shell

MASTER=spark://hadoop1:7077 spark-shell

c.在hadoop1上停止master

stop-master.sh

d.观察hadoop2上的输出:

e.在hadoop1上重启master

start-master.sh
2.基于Zookeeper的Standby Masters

    ZooKeeper提供了一个Leader Election机制,利用这个机制可以保证虽然集群存在多个Master,但是只有一个是Active的,其他的都是Standby。当Active的Master出现故障时,另外的一个Standby Master会被选举出来。由于集群的信息,包括Worker, Driver和Application的信息都已经持久化到ZooKeeper,因此在切换的过程中只会影响新Job的提交,对于正在进行的Job没有任何的影响。加入ZooKeeper的集群整体架构如下图所示。

配置参数参考值
spark.deploy.recoveryMode设置为ZOOKEEPER开启单点恢复功能,默认值:NONE
spark.deploy.zookeeper.urlZooKeeper集群的地址
spark.deploy.zookeeper.dirSpark信息在ZK中的保存目录,默认:/spark
(1)做法:

(a)在每个节点中的spark-env.sh文件中添加以下代码:

export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop1:2181,hadoop2:2181,hadoop3:2181 -Dspark.deploy.zookeeper.dir=/spark"

(b)另外:每个节点上,需要将以下两行注释掉。

# export SPARK_MASTER_HOST=hadoop1
# export SPARK_MASTER_PORT=7077

(c )start-all启动spark集群
从任意Worker节点,再启动一个Master

(d)ZooKeeper中保存的信息

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值