Cannot obtain block length for LocatedBlock

当HDFS上的文件在未关闭时写入操作中断,会导致文件保持'openforwrite'状态,无法执行cat和get操作。常见于Flume写入HDFS时遇到HDFS服务中断。解决方法包括使用'hadoopfsck-openforwrite'查找问题文件及'hdfsdebugrecoverLease'关闭文件租约。批量处理命令可能无效。
摘要由CSDN通过智能技术生成

Cannot obtain block length for LocatedBlock

说明: 当HDFS上文件在被写入时,在未关闭文件之前,写入操作异常终止,此文件就会保有openforwrite的状态,
不能对文件进行cat和get操作

常见场景Flume在对HDFS进行文件写入操作时,HDFS服务终止,文件没及时关闭。

当MR读取该文件时,也无法使用cp或者get命令,会抛异常:

java.io.IOException:java.io.IOException: Cannot obtain block length for LocatedBlock{BP-572174678-192.168.88.88-1639737680039:blk_1073745926_5102; getBlockSize()=4513; corrupt=false; offset=0; locs=[DatanodeInfoWithStorage[192.168.88.88:50010,DS-815956ca-9ccb-4ab3-af7b-e0c2a28ceab7,DISK]]}

解决方法

1、先定位到文件

hadoop fsck -openforwrite
查看哪一个是openforwrite的文件

2、释放租约(关闭文件)

hdfs debug recoverLease -path -retries

批量处理命令: 试了一下好像不太管用

hdfs fsck -openforwrite | grep ‘^.’ | grep ‘OPENFORWRITE’ | grep -o “/[^ ]*” | xargs -Ixarg hdfs debug recoverLease -path xarg

原创文章地址转达:https://blog.csdn.net/hxiaowang/article/details/103493115

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值