【FLUME】问题汇总(持续更新)

当并发写入HDFS的文件数量过大,导致磁盘空间不足时,Flume会遇到写入失败的问题。日志显示在短时间内写入大量block,超过了节点的剩余空间。解决方案包括扩容磁盘和降低并发写入量。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、flume写入hdfs报错后自动恢复
在这里插入图片描述
如果并发量 x 128M(blocksize)x 2 > 磁盘剩余空间,会导致flume写入失败。
从DataNode的日志里看到从06:50 - 07:10这20分钟内写入了超过一万个block,一个block需要的空间是128M,所以会申请超过1TB的存储空间。从发的dfs report来看 emr-worker-1节点只有 368GB剩余空间,所以会导致空间不足(结果是 There are 4 datanode(s) running and no node(s) are excluded in this operation.)。
小文件写完了就不用占128M,但是在写入过程中会以128M 预留空间,如果同时并发写入(但不关闭文件)就会产生这个问题。如果1万个文件是顺序写入,就没问题。
解决方案:一个是扩容,另外一个是降低业务的并发写入量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值