Spark报错处理系列之:Unable to close file because the last block BP-xx does not have enough number of replicas
一、完整报错
- Caused by: java.io.IOException: Unable to close file because the last block BP-1324594522-10.130.112.57-1638781636136:blk_8673701360_7658568952 does not have enough number of replicas.
二、报错原因
- 直接原因是DataNode在写完文件之后没有及时跟NameNode汇报完成状态,抛出异常。
- 根本原因是DataNode写入负载过大引起的,导致数据块不能及时上报。
- Flink Checkpoint时会大量创建和删除小文件,引起DataNode负载过大。
三、参数解释
- 这个参数是控制Hadoop中DFS客户端在写入数据时,如果需要找到下一个数据块的位置,最多可以重试的次数。默认值为5。如果重试次数达到上限仍然无法找到下一个数据块的位置,则会抛出异常。这个参数可以根据实际情况进行调整,以提高写入数据的可靠性。
四、解决方法
方案一:修改集群配置
- hdfs-site.xml中dfs.client.block.write.locateFollowingBlock.re
博客详细分析了Spark运行时遇到的HDFS IOException问题,报错显示无法关闭文件是因为最后一个数据块的副本数量不足。报错的根本原因是DataNode写入负载过大,特别是在Flink Checkpoint时。解决方案包括调整Hadoop配置参数`dfs.client.block.write.locateFollowingBlock.retries`和在Spark任务中设置相应参数。
订阅专栏 解锁全文
656

被折叠的 条评论
为什么被折叠?



