hadoop datanode下线错误记录

昨天往HBase传数据,今早发现hadoop的有一个节点挂掉了,查看其log文件发现多数报错是这样的:

 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: spark3:50010:DataXceiver error processing WRITE_BLOCK operation  src: /192.168.123.78:58872 dst: /192.168.123.78:50010
java.io.IOException: Premature EOF from inputStream

 

 

还有之前日志中的错误,今天发现的:

 ERROR org.apache.hadoop.hdfs.server.datanode.DirectoryScanner: dfs.datanode.directoryscan.throttle.limit.ms.per.sec set to value below 1 ms/sec. Assuming default value of 1000
 

 

这两个问题在这篇博客中都找到了:

https://www.cnblogs.com/liugh/p/9016576.html

生产上部署了HDFS 2.7.4,最近遇到了一些异常,记录下来备忘:

一、dfs.datanode.directoryscan.throttle.limit.ms.per.sec

DataNode运行一段时间后,报如下异常:

1

ERROR org.apache.hadoop.hdfs.server.datanode.DirectoryScanner: dfs.datanode.directoryscan.throttle.limit.ms.per.sec set to value below 1 ms/sec. Assuming default value of 1000

谷歌了一下,发现是一个Bug:

https://issues.apache.org/jira/browse/HDFS-9274

解决方案:

编辑hdfs-site.xml,增加如下配置

1

2

3

4

<property>

  <name>dfs.datanode.directoryscan.throttle.limit.ms.per.sec</name>

  <value>1000</value>

</property>

重启HDFS后,问题解决。

二、DataXceiver error processing WRITE_BLOCK operation

DataNode运行一段时间后,报如下异常:

1

ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: xxxxxx:50010:DataXceiver error processing WRITE_BLOCK operation  src: /aaaaaa:58294 dst: /bbbbbb:50010

谷歌了一下,发现需要修改数据传输线程个数。

解决方案:

编辑hdfs-site.xml,增加如下配置

1

2

3

4

<property>

  <name>dfs.datanode.max.transfer.threads</name>

  <value>8192</value>

</property>

重启HDFS后,问题解决。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值