Spark的bug之集群无法停止

当Spark集群运行一段时间后,可能因系统清理了/tmp目录导致无法正常关闭。解决方法是在每个节点的spark-env.sh配置文件中设定SPARK_PID_DIR为一个持久化的路径,如/data/spark/pids,然后重启集群。
摘要由CSDN通过智能技术生成

前言:启动spark集群一段时间后,无法在正常的关闭集群

  • 原因: Spark的停止,是通过一些.pid文件来操作的。

  • 查看spark-daemon.sh文件,其中一行:$SPARK_PID_DIRThe pid files are strored
    . /tmp by default .

  • $SPARK_PID_DIR 存放的pid文件中,就是要停止的进程的pid,$SPARK_PID_DIR默认是在系统的/tmp目录。

  • 系统每隔一段时间就会清除/tmp目录下的内容。到/tmp下查看,如果没有Spark相关.pid文件,这就是导致Spark集群无法停止的原因。

解决方法

  • 在集群所有节点spark的conf/spark-env.sh文件中增加如下配置:
export SPARK_PID_DIR=/data/spark/pids

重启spark集群即可解决。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值