1)删除slave1、slave2节点历史数据
两个节点分别执行 (删除hadoopdata)
rm -rf /hadoop/hadoopdata/
已配置集群 (举个例子,如果在其他路径,找到data删除)
rm -rf /home/yrq/hadoopdata
2)在192.168.1.4主机执行格式化(一定要执行格式化!!刚搭建起来也要)
hdfs namenode -format
3)在192.168.1.4主机执行启动
start-all.sh
尽量不用这个命令了如果你有spark使用这个命令spark起来hdfs起不来,用
start-dfs.sh
start-yarn.sh
关闭
stop-all.sh
4)jps查看master进程,slave1和slave2进程
Web ui查看集群是否启动成功
浏览器地址输入http://192.168.1.4:50070
若不能访问查看防火墙状态
firewall-cmd –state
systemctl stop firewalld.service 关闭防火墙
systemctl disable firewalld.service禁止防火墙开机启动
查看yarn是否正常http://192.168.1.4:18088
运行pi实例检查集群是否启动成功
cd /hadoop/hadoop-2.6.0/share/hadoop/mapreduce
hadoop jar hadoop-mapreduce-examples-2.6.0.jar pi 5 5
以上配置完成说明集群已正常运行。