linux下删除海量文件

Background:

ADF-RR ST/PT 中生成很多log文件


/var/spool/mqueue下海量文件,几百万
rm * -f肯定不行
list | xargs rm -f
按说行,网上大家都说行,但是此命令执行一会就自动退出了,而且ls | wc -l
发现啥都没删掉

想了想用sed
先ls > list 生成list文件

写了个脚本
#!/bin/bash
line=`wc -l list | awk ‘{print $1}’`
i=1
d=100
while [ $i -lt $line ] ; do
sed -n “$i,$d”p list | xargs rm -f
let i=i+100
let d=d+100
done

每次删100个

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值