【Linux】关于我删文件力度过大导致IO占用太高的解决思路

前言

书接上回,前两天刚找到删文件性能比较OK的方式后,测试没啥问题就在生产环境开始操练了, 虽然文件是在持续删除着,但是跑了一段时间以后,执勤同事找我说IO满了,问我是不是做了啥,我上去一看还真是,然后让我先停了:
在这里插入图片描述
但是文件也不能不删,脚本还是要跑,基于这个问题,看看怎么样控制IO又能够持续做文件清理。

正文

现象描述

先详细描述一下问题的现象,我在上午9点左右把脚本起来以后,观察了一会任务执行,发现没啥问题就做别的事情了,让脚本一直在服务器运行,大概中午的时候,找到我说IO太高了,让我看下,然后看IO升高和我的脚本基本是同一时间开始的,监控图如下,我11:30左右把脚本完全停了以后,IO就没有再这么高了:
在这里插入图片描述

问题分析

我在之前的一篇文章中说到相比较而言,文件清理最快的方式是find + delete的方式,这也是我选择的文件清理方式,但是问题就在于,使用find . -mtime +3 -type f -delete这种命令我没法在脚本这一层对他的删除做限制,比如删除1000个文件休眠5秒。这个时候想到用nice这些命令对进程优先级做限制,尝试限制IO的占用;或者在perl脚本中做限制,两种方法应该都是可行的,主要是在实际使用上是不是会有差异;

处理过程

nice命令限制优先级

可以使用man nice查看nice命令的使用方式,还是比较简单的:
在这里插入图片描述
nice命令只有一个参数-n,用来指定要设置的优先级,可选范围在-20到19,数字越大优先级越低(看到一个比较有意思的理解:nice代表这个人是个好人,越nice人约好,他就越谦让,所以优先级越低:D),在启动清理命令之前加上nice -n 19就能直接指定优先级运行了,如下:

nice -n 19 find . -mtime +3 -type f -delete

在这里插入图片描述
根据监控来看,似乎并没有什么用,使用top命令看了下,优先级是生效了的,看来这个方法不奏效。
在这里插入图片描述

ionice命令限制

另一个查到的方法是ionice,这个命令貌似可以直接对IO的调度策略和优先级做限制,使用man ionice可以看到命令的详细用法:

在这里插入图片描述
简单介绍下:

参数作用取值描述
-c, --class调度类,调度方式0,1,2,30对应none,1对应realtime,2对应best-effort,3对应idle
-n对应调度类下的级别0-7只对realtime和best-effort有效
-p指定PIDpid号指定要做调整的进程pid,如果是执行命令,那就直接带上命令就可以

关于调度策略的解释:

  • idle:当没有其他进程请求磁盘I/O时,才会进行磁盘IO,也就是说最后考虑;
  • realtime:对磁盘进行优先访问,也就是说进程的IO请求会被优先处理;
  • best-effort:该调度策略取值为0-7,数值越低,优先级越高,内核2.6.26之前,使用none等同于使用best-effort

具体的可以搜下IO的CFQ调度算法了解下,这里不展开讨论了;

随后测试了一下ionice的控制:

ionice -c 2 -n 7 find . -mtime +3 -type f -delete

在这里插入图片描述
感觉还是没太大作用,IO还是会打到100%,也可能是技艺不精,没找对方法;看样子只有自己在脚本里做控制了;

改造perl脚本

实在没有办法了,只有在我的清理脚本里做控制,把find方式换成了perl脚本,然后做了一层控制:

#!/usr/bin/perl

use File::Find;
use File::Spec;

my $path="xxx";

opendir DH, $path or die "cannot chdir to $path : $!";

for my $p (readdir DH) {
    my $idle=0; # 已删除的文件数,初始化为0
    my $sleep_time=5; # 休眠时间5秒
    next if $file eq "." or $file eq "..";
    my $sonpath=File::Spec->catdir($path,$p);
    opendir SH, $sonpath or die "cannot chdir to $sonpath : $!";
        for my $file (readdir SH) {
            next if $file eq "." or $file eq "..";
            next if $file =~ /^\./;
            my $abspath=File::Spec->catdir($sonpath,$file);
            my @s=stat("$abspath");
            if ((time()-$s[8]) > (60*60*24*2)){
                print "delete file $abspath\n";
                unlink $abspath;
                $idle=$idle+1; # 完成文件的清理后 
                if ($idle>=500){ 
                    print "finish delete $idle files, will sleep $sleep_time.\n";
                    $idle=0; # 当删除文件数达到500个的时候,手动休眠
                    sleep($sleep_time);
                }
            }
        }
    closedir SH;
}
closedir DH;

接下来运行脚本进行清理:
在这里插入图片描述
再看监控图,终于是稳定维持在一个水平了:
在这里插入图片描述

结语

虽然通过脚本的方式控制了文件清理对IO的占用,但是这算是没办法的办法,若是能够对Linux的IO调度策略再熟悉些,也许我能找到更好的办法吧,学无止境~

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Meepoljd

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值