用了好久的ha的hdfs,今天才发现
hdfs-site.xml文件的dfs.namenode.data.dir配置错了data这个单词没写 导致hdfs的文件不知道存储到哪去了
反正/home/hahadoopdata/dfs/data配置的这个路径就没有data文件夹
现在只能格式化hdfs 步骤跟简单 就三步
因为用过一段时间了 产生了许多文件 需要删除
1.删除文件
2.格式化
3.重启服务
详细解释一下重新格式化hdfs系统的方法:
1.删除文件
(1)查看hdfs-ste.xml:
<!--hdfs的元数据存储位置-->
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hahadoopdata/dfs/name</value>
</property>
<!--hdfs的数据存储位置-->
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hahadoopdata/dfs/data</value>
</property>
将dfs.namenode.name.dir所指定的目录删除、dfs.datanode.data.dir所指定的目录删除
就是说 我删除的是home下的hahadoopdata文件夹 这个文件夹都删掉了 home没删 毕竟还有别的文件
(2)查看core-site.xml:
<!--配置临时数据存储目录-->
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hahadoopdata/tmp</value>
</property>
将hadoop.tmp.dir所指定的目录删除。
2.重新执行命令:hadoop namenode -format
注意昂:
删除和格式化的时候 集群的服务是开启的 毕竟一个格式化命令 是格式化三台机子
就是说这个命令在三台机子下重新生成了我们配置的文件路径的文件夹和文件
格式化完毕。
注意:原来的数据全部被清空了。产生了一个新的hdfs。
3.然后重启服务 !!!!
要不咋生效!
stop-all.sh
start-all.sh
方法参考自:https://blog.csdn.net/yeruby/article/details/21542465