http://www.ityouknow.com/hadoop/2017/07/24/hadoop-cluster-set
这个作为参考
由于手欠format了两次 -report发现所有存储情况为0
上传文件错误说datanode没有启动
1.删掉logs tmp hdfs 重新格式化没用
2.检查防火墙关闭 9000端口开放
3.jps发现datanode在
4.发现master9000端口没有被其他机器监听
解决方案:试了一下不仅将namenode 格式化,仍将datanode 格式化后,就可以解决了。。。
1.修改master和hadoop0 hadoop3的hosts文件(实验室集群不用改)
vim /etc/hosts
2.安装jdk(所有服务器) 配置环境变量
3.免密登录
所有机器产生秘钥 ssh-keygen -t rsa
将所有机器的公钥id_rsa.pub追加到任意机器的authorized_keys里面
赋予权限
验证所有机器之间能够免密登录
4.下载hadoop配置环境变量
配置core-site.xml hdfs-site.xml mapred-site.xml yarn-site.xml slaves
5.启动集群 bin/hadoop namenode -format(只能一次!!!)
sbin.start-all.sh
6.查看集群状态 hadoop dfsadmin -report