Hadoop 部署

Hadoop启停问题

./sbin/stop-dfd.sh 无效

执行stop-dfs.sh后,会依次执行hadoop-daemons.sh > hadoop-daemon.sh脚本,然后定位到“no c o m m a n d t o s t o p ” 发 现 脚 本 会 在 command to stop”发现脚本会在 commandtostopHADOOP_PID_DIR目录里面查找hadoop- H A D O O P I D E N T S T R I N G − HADOOP_IDENT_STRING- HADOOPIDENTSTRINGcommand.pid文件, H A D O O P P I D D I R 目 录 默 认 是 / t m p 目 录 , HADOOP_PID_DIR目录默认是/tmp目录, HADOOPPIDDIR/tmpHADOOP_IDENT_STRING默认是启动Hadoop的用户名 U S E R , USER, USERcommand是你要停止的节点类型,例如namenode、datanode或secondarynamenode。所以本例的pid文件名是:hadoop-hdfs-namenode.pid、hadoop-hdfs-secondarynamenode.pid、hadoop-hdfs-datanode.pid。

因为根据linux的tmpwatch,默认在30天内文件不被访问的情况下就会被清理,所以导致找不到上述的pid文件,因此无法停止namenodes、datanodes和secondary namenodes。

解决方案1

使用ps命令查找正在运行的namenodes、datanodes和secondary namenodes的pid
在这里插入图片描述

然后在/tmp目录创建对应的pid文件,pid文件名和内容如下图所示
在这里插入图片描述重新执行stop-dfs.sh脚本,一切正常!

解决方案2

或者可以直接运行kill -9命令把对应的pid进程杀掉。重新启动
会自动在 /tmp 下创建pid文件
在这里插入图片描述

下次重新启动hdfs之前建议修改$HADOOP_PID_DIR目录,否则的话那些pid文件还是会被tmpwatch清理。

启动 ./sbin/start-dfs.sh

运行命令  jps

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值