Hadoop可能遇到的问题

本文详细介绍了在启动Hadoop过程中遇到的常见问题及解决方案,包括处理running as process错误、解决NameNode权限问题、修复DataNode的clusterID不匹配以及解决BlockOutputStream创建异常。针对这些问题,提供了如关闭防火墙、调整文件夹权限、清理数据目录等操作步骤,帮助用户成功启动并维护Hadoop集群。
摘要由CSDN通过智能技术生成

Q1:启动hadoop时提示running as process Stop it first

A:关闭所有hadoop进程再启动
stop-all.sh
start-all.sh

Q2:启动hadoop后namenode没有启动,namenode日志报错:checkpoint directory does not exist or is not accessible.

A:如果dfs/name文件夹已存在,那可能是没有权限读取该文件夹,通过赋予hadoop用户改文件夹权限来解决:
su root
chown -R hadoop /opt/hadoop-2.6.0-cdh5.6.0/dfs/name

Q3:datanode没有启动,hadoop-hadoop-datanode-slave1.log日志报错
Incompatible clusterIDs in /usr/local/hadoop/tmp/dfs/data: namenode clusterID = CID-8e201022-6faa-440a-b61c-290e4ccfb00…

A:原因是hdfs namenode -format只会格式化namenode,并不会影响到datanode,如果再次格式化会导致datanode和namenode的clusterID不一致。解决方法:先停掉hadoop,把slaves的dfs/data的内容删除,再次启动后,会创建新的clusterID,也可以复制master的clusterID到slaves中。

Q4:出现Exception in createBlockOutputStream XXX:50010 java.io.IOException: Bad connect ack with firstBadLink as 192.168.1.24:50010

A:查看防火墙状态systemctl status firewalld.service,若已经开启先关闭防火墙systemctl stop firewalld.service。但往往还是会出现以上错误,再
把master和slaves的tmp,master的dfs/name目录和slaves的dfs/data文件夹内容清空即可。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值