Hadoop分布式集群出错(启动后数据节点缺失)

在hadoop启动后,使用jps发现各个节点启动正常,如图:

      

三个节点都正常启动了,可是用浏览器访问50070端口出现:

明明有两个数据节点,显示的只有一个。如果你不断点刷新页面,数据节点的IP地址是会变的,这是什么情况?这是因为你克隆虚拟机时,复制了两个一模一样的hadoop,这就导致了datanode的VERSION里面有2个id是一模一样不能共存,所以只能显示一个数据节点。

 

怎么解决:1.删除dfs目录下的data(这个目录在:你配置的core-site.xml中的hadoop.tmp.dir)

                  2.格式化一下:hdfs namenode -format;    (这个办法亲测可用)

还有一个办法:(没试过)

修改${hadoop.tmp.dir}/dfs/data/current/VERSION文件:

修改其中的datanodeUuid和storageID

 

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值