一般来说,没有其他报错的话,基本上就是因为
hadoop namenode -format 格式化多次导致的
多次格式化会导致主节点namenode的clusterID会重新生成,而从节点datanode的clusterID 保持不变。我只是虚拟机搞得大数据,所以简单做法就是
(1)找到 hdfs-site.xml文件
(2)找到NameNode元数据的存储位置还有从节点DataNode的数据存储目录,然后直接删除 data,然后重新创建 data里面的 nn和 dn,然后重新设置一下权限。
(3)重新格式化就可以成功启动datenode.