hadoop 关闭时NodeManager等进程无法正常关闭
是因为hadoop长时间保持启动的状态,在用stop-all.sh命令关闭集群时,是根据datanode上的mapred和dfs进程号来执行的,系统每隔一短时间会清空进程号所在的文件夹,所以找不到对应的进程就无法关闭相应的进程。
ps -ef 命令找到对应的进程号
用kill -9 命令杀死即可
为避免再有此情况发生,可以修改$HADOOP_HOME/etc/hadoop/hadoop-env.sh里面默认的 HADOOP_PID_DIR
export HADOOP_PID_DIR=/你的期望目录