Hadoop-2.7.4启动datanode失败,出现如下错误:
WARN org.apache.hadoop.hdfs.server.common.Storage:
Failed to add storage directory [DISK]file:/opt/hbase/temp/hadoop-root/dfs/data/
出错原因:datanode数据目录中还有原来老版本、上次运行后残留数据或者其它集群的数据,需要清除。
解决办法:
1. 关闭hadoop所有进程
/opt/hbase/hadoop-2.7.4/sbin/stop-all.sh
不放心的话,可以单独再stop一次
/opt/hbase/hadoop-2.7.4/sbin/stop-dfs.sh
/opt/hbase/hadoop-2.7.4/sbin/stop-yarn.sh
|
1 |
/opt/hbase/hadoop-2.7.4/temp目录下文件; /opt/hbase/hadoop-2.7.4/dfs目录下data文件
|
|
1 |
/opt/hbase/hadoop-2.7.4/bin |
2. 删除hadoop命名空间目录和节点上数据目录下文件;(网上有方法通过修改集群ID,我觉得麻烦,因此,直接删除)
我的路径为:
/opt/hbase/hadoop-2.7.4/temp
/opt/hbase/hadoop-2.7.4/dfs
本文解决Hadoop-2.7.4 datanode启动失败问题,涉及错误提示、原因分析及详细步骤,包括停止进程、清理临时与数据目录、重新格式化namenode。
3149

被折叠的 条评论
为什么被折叠?



