我总共有3个hadoop集群,hadoop102,hadoop103,hadoop104,其中hdfs从hadoop102启动。
集群规划如下:
jps没有datenode:
1、停止所有jps服务(以下命令在hadoop2这台服务器上执行)。
$jps
#如果只有Jps进程,则无需执行下面的代码,否则执行。
$cd /opt/module/hadoop-2.7.2/
$sbin/stop-all.sh
2、删除VERSION(以下命令在三台服务器上都执行)。
VERSION的目录所在如下所示,首先进入到配置集群时,在core-site.xml中配置的“指定Hadoop运行时产生文件的存储目录”的目录,如下所示。(我把该目录做了修改,改成了/opt/module/hadoop-2.7.2/data/abc/temp)
$cd /opt/module/hadoop-2.7.2/data/abc/temp/dfs/data/current
[hadoop@hadoop102 current]$ ls
BP-1881495200-192.168.80.102-1588832599461 VERSION
# 没有VERSION则无需执行rm VERSION 操作,否则执行
[hadoop@hadoop102 current]$ rm VERSION
3、重新格式化一下HDFS(以下命令只需在hadoop102这台服务器上执行)。
$cd /opt/module/hadoop-2.7.2/
[atguigu@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode -format
4、启动HDFS(以下命令只需在hadoop102这台服务器上执行)。
[atguigu@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh