Hadoop集群启动错误合集

一、配置文件修改错误

在配置文件的时候改错、多加都会导致集群启动异常,发生出错误后,可查看$HADOOP_HOME/logs/

解决方法:

  1. 将每个节点上的hadoop根目录下的data和logs删除
  2. 将集群上所有服务停掉(最好重启linux)
  3. 将/tmp下的内容清空(sudo rm -rf/tmp/*)
  4. 重新格式化

二、重复格式化

对于新配置的集群,需要将集群格式化,这时会在hadoop的根目录下多了两个文件夹,一个是data另一个是logs。

  • name和data的cluserID应该是一样的

看logs下的该节点的namenode.log文件

三、其他常见错误

  1. 主机名称配置错误
  2. IP地址配置错误
  3. ssh没有配置好
  4. 防火墙没关闭、或者没有启动YARN
  5. DataNode和NameNode进程同时只能工作一个
  6. jps不生效(原因:全局变量hadoop java没有生效。解决办法:需要source /etc/profile文件)
  7. 8088端口连接不上(输命令:cat /etc/hosts 注释掉以下代码:#127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4  #::1 hadoop102)

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值