使用start-dfs.sh启动hdfs后只有namenode,没有datanode。
原因:配置集群式进行了多次格式化,导致两者的id不一致,所以启动namenode是没有启动datanode。
解决办法:可以在VMware李自己找,但在xftp里面寻找更为简便。
1:找到你的hadoop下data/tmp/dfs,里面有name和data两个文件。
2:进入name,在current里有一个version的文件,记事本打开,复制id,
3:再进入到data下的current的version,将复制的id覆盖到clusterID的位置,再在VMware里重新格式化(hadoop namenode -format)就好了。