通过克隆虚拟机搭建hadoop集群,开启hadoop后,live node 只出现一个,随机是slave1或slave2

问题:克隆虚拟机,配置hadoop完全分布式。每台机器都配置完静态ip,主机名,主机和ip映射。开启hadoop集群,(start-dfs.sh),master主机上namenode和secondarynamenode,slave1主机上的datanode,slave2主机上的slave2主机上的datanode都开启了,但是在master:50070网址上live node 只有一个,这个node 是随机的,有时候是slave1,有时候是slave2。

原因:因为slave1和slave2都是通过master克隆过来的,slave1和slave2上的tmp内的dfs/data文件夹的内容相同,当开启hadoop时,slave1和slave3会竞争资源,所以,开启hadoop有时只开启slave1,有时只开启slave2。
解决:将slave1和slave2内的tmp目录下的dfs文件夹删掉,再把master主机上的tmp目录下的dfs文件夹删掉,重新格式化namenode: hdfs namenode -format。这样之后开启hadoop集群时,从节点上的datanode都会开启,并且都会加载到master上。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值