spark高可用集群搭建(stanalone)

目录

1.环境准备

2.配置文件

3.服务启动

4.验证

5.测试


大体和非可用的搭建方式差不多,不同的是多了zookeeper集群,用来帮助spark实现高可用

1.环境准备

节点名称节点角色
master1master
master2standby master
woker1worker,zookeeper
woker2worker,zookeeper
woker3woker,zookeeper

worker1,worker2,worker3上面部署zookeeper集群

2.配置文件

修改spark-env.sh,添加以下内容 export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=worker1:2181,worker2:2181,woker3:2181 -Dspark.deploy.zookeeper.dir=/spark/ha"

3.服务启动

在master1上启动spark集群服务

sh /data/spark-3.1.3-bin-hadoop3.2/sbin/start-all.sh

在master2上启动master备用节点

sh /data/spark-3.1.3-bin-hadoop3.2/sbin/start-master.sh

4.验证

访问master1:8081显示为alive 访问master2:8081显示为standby 停止master1的master服务,master2会切换成alive stop-master.sh master1的master服务恢复,主从切点不会切换回来,master2显示alive,master1显示standby

5.测试

bin/spark-sql --master spark://master1:7077 --num-executors 15 --executor-memory 2g --executor-cores 1 --driver-memory 1g --driver-cores 2 --total-executor-cores 1 4 --conf spark.hadoop.mapreduce.input.fileinputformat.input.dir.recursive=true --conf spark.sql.shuffle.partitions=20

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值