Spark报错处理系列之:HDFS Unable to close file because the last block BP-xx does not have enough number

527 篇文章 535 订阅 ¥49.90 ¥99.00

Spark报错处理系列之:Unable to close file because the last block BP-xx does not have enough number of replicas

一、完整报错

  • Caused by: java.io.IOException: Unable to close file because the last block BP-1324594522-10.130.112.57-1638781636136:blk_8673701360_7658568952 does not have enough number of replicas.

二、报错原因

  • 直接原因是DataNode在写完文件之后没有及时跟NameNode汇报完成状态,抛出异常。
  • 根本原因是DataNode写入负载过大引起的,导致数据块不能及时上报。
  • Flink Checkpoint时会大量创建和删除小文件,引起DataNode负载过大。

三、参数解释

  • 这个参数是控制Hadoop中DFS客户端在写入数据时,如果需要找到下一个数据块的位置,最多可以重试的次数。默认值为5。如果重试次数达到上限仍然无法找到下一个数据块的位置,则会抛出异常。这个参数可以根据实际情况进行调整,以提高写入数据的可靠性。

四、解决方法

方案一:修改集群配置

  • hdfs-site.xml中dfs.client.block.write.locateFollowingBlock.retries(写入块后尝试关闭的次数)参数的配置。
  • 默认为5次(30秒),推荐设置为8次(2分钟),负载高的集群可以视情况继续调大。

方案二:任务加上参数

通过在SparkConf中设置该参数来全局生效,

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

最笨的羊羊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值