Spark独立集群动态上线下线Worker节点

(一)下线Worker节点

我的操作:关机就是了……😄
反正工作自然会交给其它节点做的。

当然其实应该这样,登录到需要下线的节点主机:
执行脚本关闭本机Worker:

$> $SPARK_HOME/sbin/stop-worker.sh

注意还有一个stop-workers.sh,是用来关闭全部Worker的,别搞错了。
看清楚多一个s!!!

如果你在Master上不小心执行了这个多个S的脚本(Master到所有Worker一定都配置了ssh密钥登录),
那么就全关完了……

关机前:
在这里插入图片描述
关机后:
在这里插入图片描述
过一段时间DEAD的Worker就会消失(集群总要留点时间看它能不能重新连接嘛)。

.

(二)上线Worker节点

登录到需要上线的节点主机:
执行脚本启动本机Worker,并连接到Spark Master:

$> $SPARK_HOME/sbin/start-worker.sh spark://vm00:7077

注意还有一个start-workers.sh脚本。区别同上。

最后,如果是一个新的Worker,别忘了在$SPARK_CONF_DIR里面编辑workers(或slaves)。
加入新Worker的主机名,方便下次集群全部一起启动。

对了,新启动的Worker有新的ID。
呃……完。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值