spark 的HA模式

hadoop,spark,kafka交流群:459898801

1,ssh无密钥登录

1,生产一对公钥和密钥

$ ssh-keygen -t rsa

2,拷贝公钥到各个机器上

$ ssh-copy-id hadoop.learn.com

3,ssh连接

$ ssh spark.learn.com
$ ssh hadoop.learn.com
$ ssh tachyon.learn.com

2,配置zookeeper

1,在spark-env.sh中添加如下配置

export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER "  
export SPARK_DAEMON_JAVA_OPTS="${SPARK_DAEMON_JAVA_OPTS} -Dspark.deploy.zookeeper.url=spark.learn.com:2181,hadoop.learn.com:2181,tachyon.learn.com:2181"  

2,各个参数的意义

参数默认值含义
spark.deploy.recoveryModeNONE恢复模式(Master重新启动的模式),有三种:1, ZooKeeper, 2, FileSystem, 3 NONE
spark.deploy.zookeeper.urlZooKeeper的Server地址
spark.deploy.zookeeper.dir/sparkZooKeeper 保存集群元数据信息的文件目录,包括Worker,Driver和Application。

Master可以在任何时候添加或移除。如果发生故障切换,新的Master将联系所有以前注册的Application和Worker告知Master的改变。
注意:不能将Master定义在conf/spark-env.sh里了,而是直接在Application中定义。涉及的参数是 export SPARK_MASTER_IP,这项不配置或者为空。否则,无法启动多个master。

1,启动spark的HA

1.zookeeper集群已经启动。

bin/zkServer.sh start
bin/zkServer.sh status

2.关闭集群后,重新启动spark集群:

sbin/stop-all.sh 
sbin/start-all.sh 

3.在另一个节点上,启动新的master:

sbin/start-master.sh 

4.运行applition

MASTER=spark://spark.learn.com:7077,tachyon.learn.com:7077 bin/spark-shell

启动成功一.png-61.6kB
启动成功二.png-66.6kB
webapp2.png-62.7kB
webapp3.png-86.1kB

5,kill 掉一个master

kill -9 masterID

changeMaster.png-87.5kB
kill后webapp.png-91.6kB
重启后.png-61.3kB

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值