长时间未关闭hadoop集群导致stop-all.sh 失效

如果长时间未关闭hadoop集群,执行stop-all.sh命令会报错:no DataNode/NameNode to stop。
这是因为hadoop启动时的默认地址为:export HADOOP_PID_DIR=${HADOOP_PID_DIR}
即存放log的地址(/tmp),在启动时可以看到starting datanode, logging to /hadoop/hadoop-2.7.7/logs/hadoop-root-datanode-master.out。
但hadoop会定期清理log文件夹中的文件,长时间不关闭hadoop集群会导致hadoop清理了log文件夹中DataNode/NameNode的进程的pid,从而导致stop-all.sh 无法获得DataNode/NameNode的进程的pid,自然无法关闭hadoop集群。

解决方法:
先使用ps -ef | grep java | grep hadoop找到相关的进程的pid,后用kill -9 pid杀掉相关进程。
再创建一个新的文件夹存放DataNode/NameNode的进程的pid
修改每个节点的hadoop-env.sh文件:在这里插入图片描述
将原有的export HADOOP_PID_DIR=${HADOOP_PID_DIR}注释掉,添加export HADOOP_PID_DIR=(你想要将pid存放的文件夹路径)。最后改为上图形式
重新启动hadoop集群,start-all.sh后
在这里插入图片描述
可以发现DataNode/NameNode的进程的pid被放入了指定的文件夹
打开文件可以发现里面有一串对应进程的pid

除了上述问题外,还有两个导致这种情况的可能:
1:环境变量 $HADOOP_PID_DIR 在你启动 hadoop 后改变了
2:以另外的用户身份执行 stop-all

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值