执行stop-dfs.sh后无法停止namenodes、datanodes和secondary namenodes

1. 环境

本文使用Hadoop 2.7.3版本

2. 错误信息

执行stop-dfs.sh后显示以下信息:

Stopping namenodes on [master]
master: no namenode to stop
slave1: no datanode to stop
slave2: no datanode to stop
slave3: no datanode to stop
Stopping secondary namenodes [x.x.x.x]
x.x.x.x: no secondarynamenode to stop

3. 原因分析

执行stop-dfs.sh后,会依次执行hadoop-daemons.sh > hadoop-daemon.sh脚本,然后定位到“no $command to stop”发现脚本会在$HADOOP_PID_DIR目录里面查找hadoop-$HADOOP_IDENT_STRING-$command.pid文件,$HADOOP_PID_DIR目录默认是/tmp目录,$HADOOP_IDENT_STRING默认是启动Hadoop的用户名$USER,$command是你要停止的节点类型,例如namenode、datanode或secondarynamenode。所以本例的pid文件名是:hadoop-hdfs-namenode.pid、hadoop-hdfs-secondarynamenode.pid、hadoop-hdfs-datanode.pid。

因为根据linux的tmpwatch,默认在30天内文件不被访问的情况下就会被清理,所以导致找不到上述的pid文件,因此无法停止namenodes、datanodes和secondary namenodes。

4. 解决方法

使用ps命令查找正在运行的namenodes、datanodes和secondary namenodes的pid,然后在/tmp目录创建对应的pid文件,重新执行stop-dfs.sh脚本,一切正常!或者可以直接运行kill -9命令把对应的pid进程杀掉。下次重新启动hdfs之前建议修改$HADOOP_PID_DIR目录,否则的话那些pid文件还是会被tmpwatch清理。
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值