一、配置文件修改错误
在配置文件的时候改错、多加都会导致集群启动异常,发生出错误后,可查看$HADOOP_HOME/logs/
解决方法:
- 将每个节点上的hadoop根目录下的data和logs删除
- 将集群上所有服务停掉(最好重启linux)
- 将/tmp下的内容清空(sudo rm -rf/tmp/*)
- 重新格式化
二、重复格式化
对于新配置的集群,需要将集群格式化,这时会在hadoop的根目录下多了两个文件夹,一个是data另一个是logs。
- name和data的cluserID应该是一样的
看logs下的该节点的namenode.log文件
三、其他常见错误
- 主机名称配置错误
- IP地址配置错误
- ssh没有配置好
- 防火墙没关闭、或者没有启动YARN
- DataNode和NameNode进程同时只能工作一个
- jps不生效(原因:全局变量hadoop java没有生效。解决办法:需要source /etc/profile文件)
- 8088端口连接不上(输命令:cat /etc/hosts 注释掉以下代码:#127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 #::1 hadoop102)