昨天往HBase传数据,今早发现hadoop的有一个节点挂掉了,查看其log文件发现多数报错是这样的:
ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: spark3:50010:DataXceiver error processing WRITE_BLOCK operation src: /192.168.123.78:58872 dst: /192.168.123.78:50010
java.io.IOException: Premature EOF from inputStream
还有之前日志中的错误,今天发现的:
ERROR org.apache.hadoop.hdfs.server.datanode.DirectoryScanner: dfs.datanode.directoryscan.throttle.limit.ms.per.sec set to value below 1 ms/sec. Assuming default value of 1000
这两个问题在这篇博客中都找到了:
https://www.cnblogs.com/liugh/p/9016576.html
生产上部署了HDFS 2.7.4,最近遇到了一些异常,记录下来备忘:
一、dfs.datanode.directoryscan.throttle.limit.ms.per.sec
DataNode运行一段时间后,报如下异常:
1 |
|
谷歌了一下,发现是一个Bug:
https://issues.apache.org/jira/browse/HDFS-9274
解决方案:
编辑hdfs-site.xml,增加如下配置
1 2 3 4 |
|
重启HDFS后,问题解决。
二、DataXceiver error processing WRITE_BLOCK operation
DataNode运行一段时间后,报如下异常:
1 |
|
谷歌了一下,发现需要修改数据传输线程个数。
解决方案:
编辑hdfs-site.xml,增加如下配置
1 2 3 4 |
|
重启HDFS后,问题解决。