hadoop jar执行任务,报错 java.io.FileNotFoundException:/tmp/hadoop-unjarxxxx/...(no space left on device)

问题描述:

使用hadoop jar命令执行MapReduce任务,报错如下

查看大数据提交机的磁盘使用情况:

df -h

发现/tmp目录空间没有用满

查看inode使用情况:

df -i

/tmp目录的inode已经用满了。。。

查看/tmp目录的使用情况:

发现有许多MapReduce任务提交的临时目录,可以清理掉:

清理完后,再次统计,发现inode的使用量不到1%了。

此时正常提交MapReduce任务成功。

yeah。。。。

Linux还是细节多啊。。。

 

那为啥/tmp目录下会有这么多的hadoop-unjarxxxxx目录呢?

原来hadoop在执行MapReduce任务的时候,会在hadoop的临时目录生成一些临时文件,就是这个hadoop-unjarxxx,任务执行完成后,会主动删除这个临时目录hadoop-unjarxxx, 但是我们偶尔会遇到一些情况,导致hadoop任务异常结束,没有清理掉这个任务的临时目录,临时文件就会越来越多啦。。。

比如,我们执行一个MapReduce任务,然后查看/tmp目录,会发现有个临时目录

等任务执行后,再次查询/tmp目录,原来任务的临时目录已经没有了,现在的是另一个任务的临时目录

咳咳。。。

通过ls -i命令可以查看各个目录的inode使用情况哟。。

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值