datanode启动后闪退_Hadoop集群搭建好后无法启动datanode

搭建Hadoop集群的时候,

c16c0e95b8c77c540ae926b2d1c201f4.png

运行命令:

hdfs namenode -format

格式化namenode,因为某种原因我进行了两次格式化namenode,这样做的后果是接下来我在用命令:

start-dfs.sh

来启动hdfs时,jps发现datanode先是启动了一下,然后就挂掉了,在http://192.168.59.101:50070 (HDFS管理界面)也看不到datanode的信息。

90e6c694bc55198fabef0b0b0b6242d4.png

9b1566bebca2f03f820e049f88fdf4c3.png

下图是具体的日志信息:

9cb44af3dfe2cc72ddc1e4f95e5c4460.png

综合我在网上搜到的各种回答,确定无疑这是因为我二次格式化namenode所导致的:

hadoop的升级功能需要datanode在它的版本文件里存储一个永久性的clusterID,当datanode启动时会检查并匹配namenode的版本文件里的clusterID,如果两者不匹配,就会出现"Incompatible clusterIDs"的异常。
每次格式化namenode都会生成一个新的clusterID, 如果只格式化了namenode,没有格式化此datanode, 就会出现”java.io.IOException: Incompatible namespaceIDs“异常。

所以现在的问题就是更改这个datanode的clusterID就OK:

根据日志报错信息(注意上图中红框部分):

2019-09-14 23:06:37,591 WARN org.apache.hadoop.hdfs.server.common.Storage: java.io.IOException: 
Incompatible clusterIDs in /opt/hadoop/dfs/data: namenode clusterID = CID-b2fc3970-51f5-44e8-a092-03bad04e640e; 
datanode clusterID = CID-db031ca7-c510-4b16-a6af-af32cd5a482a

进入/opt/hadoop/dfs/data该目录下:

f18c4d979072cb43cd78e3a2347543ca.png

4f8af417c238434369a1a7504bdef924.png

三个datanode节点都这样更改后,重启:即可成功启动datanode

17f161cbd84d6f29c01f5912735a26b3.png

http://192.168.59.101:50070/dfshealth.html#tab-datanode

a25e20a34290f11ad2e9461a8c885c7a.png
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值