Spark之HA配置

首先安装Zookeeper集群,并启动Zookeeper集群,同时开启hdfs集群
停止spark所有服务,修改配置文件spark-env.sh,在该配置文件中删掉SPARK_MASTER_IP并添加如下配置:

export SPARK_DAEMON_JAVA_OPTS=" 
    -Dspark.deploy.recoveryMode=ZOOKEEPER  
    -Dspark.deploy.zookeeper.url=master,slave1,slave2  
    -Dspark.deploy.zookeeper.dir=/spark"

添加完成以后,同时注释掉如下内容:

#SPARK_MASTER_HOST=master
#SPARK_MASTER_PORT=7077

在这里插入图片描述

1 在master节点上修改slaves配置文件内容指定worker节点(这一步在安装spark集群时已经做过了,所以可省略)
2 将配置文件同步到所有节点:

scp spark-env.sh slave1:/home/groot/soft/spark/conf
scp spark-env.sh slave2:/home/groot/soft/spark/conf

分发完成以后,关闭Standalone模式:

stop-all.sh

然后重开集群,这个时候就是高可用了(需注意:在开启spark集群之前需先开启zookeeper集群和hdfs集群):
3 在master上执行start-all.sh脚本,启动集群并启动第一个master节点,然后在slave1上执行start-all.sh启动第二个master节点(也可以单独启动master,执行:start-master.sh ):
启动master上的第一个master节点:
在这里插入图片描述

启动slave1上的第二个master节点:
在这里插入图片描述

4 验证
启动完成以后,去Web界面查看Master状态:

master:

在这里插入图片描述
slave1:
在这里插入图片描述

由此可以看到,先开的master节点的master状态为ALIVE(活跃的),而后开的slave1的master则是STANDBY(副本)
这个时候,我们手动干掉master上面的Master进程,观察是否会自动进行切换:
在这里插入图片描述

干掉以后,再去Web界面查看Master的状态:
在这里插入图片描述
由于master的Master进程被干掉,所以无法访问,接下来查看slave1的Web界面
在这里插入图片描述

可以看到,这个时候的slave1上的Master的状态成为了ALIVE,这就说明实现了高可用。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在进行Spark HA部署时,可以按照以下步骤进行操作: 1. 首先,将配置文件分发至需要部署的节点。可以使用scp命令将spark-env.sh文件分发到host02和host03节点的对应目录下: ``` scp spark-env.sh host02:/opt/programs/spark/conf scp spark-env.sh host03:/opt/programs/spark/conf ``` 2. 接下来,启动Spark HA集群,同时启动Zookeeper服务。具体的启动过程可能因环境而异,请根据实际情况执行相应的命令。 3. 在配置文件中设置相关参数以支持Spark HA。可以使用以下参数进行配置: - spark.deploy.recoveryMode:设置为ZK,表示使用Zookeeper进行故障恢复。 - spark.deploy.zookeeper.url:设置Zookeeper的URL。 - spark.deploy.zookeeper.dir:设置Zookeeper保存恢复状态的目录,默认为/spark。 4. 最后,将配置文件发送到其他节点以确保所有节点都具有相同的配置。可以使用scp命令将spark-env.sh文件分发到其他节点的相应目录下: ``` scp -r spark-env.sh hadoop02:/home/hadoop/apps/spark/conf scp -r spark-env.sh hadoop02:/home/hadoop/apps/spark/conf ``` 请注意,以上步骤仅为示例,实际操作中可能需要根据具体环境和需求进行相应的修改和调整。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [spark HA集群部署](https://blog.csdn.net/weixin_55047679/article/details/130045449)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Spark分布式集群部署及HA配置](https://blog.csdn.net/a805814077/article/details/102989233)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值