关闭

hadoop 2.7.3 启动Hadoop HDFS时的“Incompatible clusterIDs”

131人阅读 评论(0) 收藏 举报
分类:

Incompatible clusterIDs”的错误原因是在执行“hdfs namenode -format”之前,没有清空DataNode节点的data目录。

 

网上一些文章和帖子说是tmp目录,它本身也是没问题的,但Hadoop 2.7.3是data目录.

从上述描述不难看出,解决办法就是清空所有DataNodedata目录,但注意不要将data目录本身给删除了。

data目录由hdfs-site.xml文件中的属性“dfs.datanode.data.dir”指定。

 

 INFO org.apache.hadoop.hdfs.server.common.Storage: Lock on /data/hadoop/hadoop-2.7.3/data/in_use.lock acquired by nodename 28326@localhost

Warn org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool 

org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool  (Datanode Uuid unassigned) service to /172.25.40.171:9001

java.io.IOException: Incompatible clusterIDs in /data/hadoop/hadoop-2.4.0/data: namenode clusterID = CID-50401d89-a33e-47bf-9d14-914d8f1c4862; datanode clusterID = CID-153d6fcb-d037-4156-b63a-10d6be224091


 (Datanode Uuid unassigned) service to /172.25.40.171:9001

java.io.IOException: Incompatible clusterIDs in /data/hadoop/hadoop-2.4.0/data: namenode clusterID = CID-50401d89-a33e-47bf-9d14-914d8f1c4862; datanode clusterID = CID-153d6fcb-d037-4156-b63a-10d6be224091


0
0

查看评论
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
    个人资料
    • 访问:9733次
    • 积分:156
    • 等级:
    • 排名:千里之外
    • 原创:5篇
    • 转载:9篇
    • 译文:0篇
    • 评论:1条
    文章分类
    最新评论