spark停止命令linux,linux – 在Spark sbin /文件夹中的stop-all.sh没有停止所有从属节点...

嗨我在独立模式下有一个Spark集群,即我的笔记本电脑中运行了一个Spark-master进程和三个Spark-slave进程(同一台机器中的Spark集群).

启动主服务器和从服务器只是运行Spark_Folder / sbin / start-master.sh和Spark_Folder / sbin / stop-master.sh中的脚本.

但是,当我运行Spark_Folder / sbin / stop-all.sh时,它只停止一个主服务器和一个服务器,因为我有三个从服务器正在运行,在运行stop-all.sh后我仍然有两个从服务器正在运行.

我深入研究了脚本“stop-slaves.sh”,发现如下:

if [ "$SPARK_WORKER_INSTANCES" = "" ]; then

"$sbin"/spark-daemons.sh stop org.apache.spark.deploy.worker.Worker 1

else

for ((i=0; i

"$sbin"/spark-daemons.sh stop org.apache.spark.deploy.worker.Worker $(( $i + 1 ))

done

fi

似乎此脚本基于“SPARK_WORKER_INSTANCES”号码停止.但是,如果我使用非数字名称启动奴隶怎么办?

还有什么想要通过一次点击关闭整个火花集群? (我知道运行“pkill -f spark *”会起作用)

非常感谢.

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值