1.hadoop
的启动节点丢失
(
暴力解决
)
stop-all.sh
停掉集群
/usr/local/soft/hadoop-2.7.6
(三台虚拟机都要进去的目录)
删除三台该文件下面的
tmp
文件
rm -rf tmp
如果
hadoop
的配置文件做了修改,就必须分发(要求是三台虚拟机保持一致)
格式化(在
master
中操作)
hdfs namenode -format
启动集群
start-all.sh
2.
没有命令
检查环境变量
vim /etc/profile
确保自己写的东西都是对
source /etc/profile