一把辛酸泪-----DataNode假活

记录一下历时四天的Hadoop改错历程!

本人hadoop使用的版本是hadoop-3.1.3的高可用(HA)

目录

问题描述:

发现问题:

问题原因:

解决:


问题描述:

从错节点jps查看进程显示正常,DataNode和NodeManager都存在的,

但是运行程序的时候会报奇奇怪怪的错误,下面是会报的错误:

 

错误一:

ERROR tool.ExportTool: Encountered IOException running export job: java.net.ConnectException: Call From hadoop01/192.168.17.128 to hadoop01:8020 failed on connection exception: java.net.ConnectException: Connection refused;

错误二:

Permission denied: user=dr.who, access=READ_EXECUTE, inode="/tmp/hadoop-yarn/staging/root/.staging":root:supergroup:drwx------

错误三:

Caused by: org.apache.hadoop.hdfs.BlockMissingException: Could not obtain block: BP-865521925-192.168.17.128-1650628993926:blk_1073778545_37721 file=/tmp/hadoop-yarn/staging/root/.staging/job_1654186230804_0001/job.split

错误四:

FAILED: Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapredLocalTask

错误五:

Caused by: Could not obtain block

发现问题:

进入NameNode的9870端口(Hadoop2X的是50070)

发现DataNode不齐,jps查看所有的DataNode都是存在的。

找到问题了,DataNode假活!!!!

 

问题原因:

DataNode已经死了,jps还是会出现DataNode和NodeManager!

解决:

1、进入死了的DataNode节点,进入Hadoop的安装目录,删除data文件夹,重新启动,重新启动Hadoop从节点的data会重新生成!

2、重新启动后进入9870端口(Hadoop2X的是50070),我的是:hadoop01:9870

可能会出现文件损坏情况,如果出现,删除损坏的文件:

(1)hadoop fsck /        (查看是否有损坏的文件)

最后出现Corrupt就是有损坏的文件

(2)hadoop fsck -delete        (删除损坏的文件)

 

最后重新执行程序!没有报错!我的错误解决了!

 

  • 4
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值