linux系统硬盘使用过高,磁盘IO过高时的处理办法

转:

http://www.cnblogs.com/wjoyxt/p/4808024.html

针对系统中磁盘IO负载过高的指导性操作

主要命令:

echo deadline > /sys/block/sda/queue/scheduler

注:以下的内容仅是提供参考,

如果磁盘IO确实比较大的话,是数据库,可以进行读写分离或者分库操作,减小磁盘压力,文件的话,可以利用raid来减轻压力

一)I/O调度程序的总结:

1)当向设备写入数据块或是从设备读出数据块时,请求都被安置在一个队列中等待完成.

2)每个块设备都有它自己的队列.

3)I/O调度程序负责维护这些队列的顺序,以更有效地利用介质.I/O调度程序将无序的I/O操作变为有序的I/O操作.

4)内核必须首先确定队列中一共有多少个请求,然后才开始进行调度.

二)I/O调度的4种算法

1)CFQ(完全公平排队I/O调度程序)

特点:

在最新的内核版本和发行版中,都选择CFQ做为默认的I/O调度器,对于通用的服务器也是最好的选择.

CFQ试图均匀地分布对I/O带宽的访问,避免进程被饿死并实现较低的延迟,是deadline和as调度器的折中.

CFQ对于多媒体应用(video,audio)和桌面系统是最好的选择.

CFQ赋予I/O请求一个优先级,而I/O优先级请求独立于进程优先级,高优先级的进程的读写不能自动地继承高的I/O优先级.

工作原理:

CFQ为每个进程/线程,单独创建一个队列来管理该进程所产生的请求,也就是说每个进程一个队列,各队列之间的调度使用时间片来调度,

以此来保证每个进程都能被很好的分配到I/O带宽.I/O调度器每次执行一个进程的4次请求.

2)NOOP(电梯式调度程序)----

适用于SSD固态硬盘。

在新兴的固态硬盘比如SSD、Fusion IO上,最简单的NOOP反而可能是最好的算法,因为其他三个算法的优化是基于缩短寻道时间的,而固态硬盘没有所谓的寻道时间且IO响应时间非常短。

特点:

在Linux2.4或更早的版本的调度程序,那时只有这一种I/O调度算法.

NOOP实现了一个简单的FIFO队列,它像电梯的工作主法一样对I/O请求进行组织,当有一个新的请求到来时,它将请求合并到最近的请求之后,以此来保证请求同一介质.

NOOP倾向饿死读而利于写.

NOOP对于闪存设备,RAM,嵌入式系统是最好的选择.

电梯算法饿死读请求的解释:

因为写请求比读请求更容易.

写请求通过文件系统cache,不需要等一次写完成,就可以开始下一次写操作,写请求通过合并,堆积到I/O队列中.

读请求需要等到它前面所有的读操作完成,才能进行下一次读操作.在读操作之间有几毫秒时间,而写请求在这之间就到来,饿死了后面的读请求.

3)Deadline(截止时间调度程序)

特点:

通过时间以及硬盘区域进行分类,这个分类和合并要求类似于noop的调度程序.

Deadline确保了在一个截止时间内服务请求,这个截止时间是可调整的,而默认读期限短于写期限.这样就防止了写操作因为不能被读取而饿死的现象.

Deadline对数据库环境(ORACLE RAC,MYSQL等)是最好的选择.

4)AS(预料I/O调度程序)

特点:

本质上与Deadline一样,但在最后一次读操作后,要等待6ms,才能继续进行对其它I/O请求进行调度.

可以从应用程序中预订一个新的读请求,改进读操作的执行,但以一些写操作为代价.

它会在每个6ms中插入新的I/O操作,而会将一些小写入流合并成一个大写入流,用写入延时换取最大的写入吞吐量.

AS适合于写入较多的环境,比如文件服务器

AS对数据库环境表现很差.

三)I/O调度方法的查看与设置

1)查看当前系统的I/O调度方法:

[root@test1 tmp]#

cat /sys/block/

sda

/queue/scheduler

noop anticipatory deadline

[cfq]

2)临地更改I/O调度方法:

例如:想更改到noop电梯调度算法:

echo deadline > /sys/block/

sda

/queue/scheduler

3)想永久的更改I/O调度方法: 如下

修改内核引导参数,加入elevator=调度程序名

[root@test1 tmp]#

vi /boot/grub/menu.lst

更改到如下内容:

kernel /boot/vmlinuz-2.6.18-8.el5 ro root=LABEL=/

elevator=deadline

rhgb quiet

重启之后,查看调度方法:

[root@test1 ~]# cat /sys/block/sda/queue/scheduler

noop anticipatory

[deadline]

cfq

已经是deadline了

四)I/O调度程序的测试

本次测试分为只读,只写,读写同时进行.

分别对单个文件600MB,每次读写2M,共读写300次.

1)测试磁盘读:

[root@test1 tmp]# echo deadline > /sys/block/sda/queue/scheduler

[root@test1 tmp]#

time dd if=/dev/sda1 f=/dev/null bs=2M count=300

300+0 records in

300+0 records out

629145600 bytes (629 MB) copied, 6.81189 seconds, 92.4 MB/s

real    0m6.833s

user    0m0.001s

sys     0m4.556s

[root@test1 tmp]# echo noop > /sys/block/sda/queue/scheduler

[root@test1 tmp]# time dd if=/dev/sda1 f=/dev/null bs=2M count=300

300+0 records in

300+0 records out

629145600 bytes (629 MB) copied, 6.61902 seconds, 95.1 MB/s

real    0m6.645s

user    0m0.002s

sys     0m4.540s

[root@test1 tmp]# echo anticipatory > /sys/block/sda/queue/scheduler

[root@test1 tmp]# time dd if=/dev/sda1 f=/dev/null bs=2M count=300

300+0 records in

300+0 records out

629145600 bytes (629 MB) copied, 8.00389 seconds, 78.6 MB/s

real    0m8.021s

user    0m0.002s

sys     0m4.586s

[root@test1 tmp]# echo cfq > /sys/block/sda/queue/scheduler

[root@test1 tmp]# time dd if=/dev/sda1 f=/dev/null bs=2M count=300

300+0 records in

300+0 records out

629145600 bytes (629 MB) copied, 29.8 seconds, 21.1 MB/s

real    0m29.826s

user    0m0.002s

sys     0m28.606s

结果:

第一 noop:用了6.61902秒,速度为95.1MB/s

第二 deadline:用了6.81189秒,速度为92.4MB/s

第三 anticipatory:用了8.00389秒,速度为78.6MB/s

第四 cfq:用了29.8秒,速度为21.1MB/s

2)测试写磁盘:

[root@test1 tmp]# echo cfq > /sys/block/sda/queue/scheduler

[root@test1 tmp]#

time dd if=/dev/zero f=/tmp/test bs=2M count=300

300+0 records in

300+0 records out

629145600 bytes (629 MB) copied, 6.93058 seconds, 90.8 MB/s

real    0m7.002s

user    0m0.001s

sys     0m3.525s

[root@test1 tmp]# echo anticipatory > /sys/block/sda/queue/scheduler

[root@test1 tmp]# time dd if=/dev/zero f=/tmp/test bs=2M count=300

300+0 records in

300+0 records out

629145600 bytes (629 MB) copied, 6.79441 seconds, 92.6 MB/s

real    0m6.964s

user    0m0.003s

sys     0m3.489s

[root@test1 tmp]# echo noop > /sys/block/sda/queue/scheduler

[root@test1 tmp]# time dd if=/dev/zero f=/tmp/test bs=2M count=300

300+0 records in

300+0 records out

629145600 bytes (629 MB) copied, 9.49418 seconds, 66.3 MB/s

real    0m9.855s

user    0m0.002s

sys     0m4.075s

[root@test1 tmp]# echo deadline > /sys/block/sda/queue/scheduler

[root@test1 tmp]# time dd if=/dev/zero f=/tmp/test bs=2M count=300

300+0 records in

300+0 records out

629145600 bytes (629 MB) copied, 6.84128 seconds, 92.0 MB/s

real    0m6.937s

user    0m0.002s

sys     0m3.447s

测试结果:

第一 anticipatory,用了6.79441秒,速度为92.6MB/s

第二 deadline,用了6.84128秒,速度为92.0MB/s

第三 cfq,用了6.93058秒,速度为90.8MB/s

第四 noop,用了9.49418秒,速度为66.3MB/s

3)测试同时读/写

[root@test1 tmp]# echo deadline > /sys/block/sda/queue/scheduler

[root@test1 tmp]# dd if=/dev/sda1 f=/tmp/test bs=2M count=300

300+0 records in

300+0 records out

629145600 bytes (629 MB) copied, 15.1331 seconds, 41.6 MB/s

[root@test1 tmp]# echo cfq > /sys/block/sda/queue/scheduler

[root@test1 tmp]# dd if=/dev/sda1 f=/tmp/test bs=2M count=300

300+0 records in

300+0 records out

629145600 bytes (629 MB) copied, 36.9544 seconds, 17.0 MB/s

[root@test1 tmp]# echo anticipatory > /sys/block/sda/queue/scheduler

[root@test1 tmp]# dd if=/dev/sda1 f=/tmp/test bs=2M count=300

300+0 records in

300+0 records out

629145600 bytes (629 MB) copied, 23.3617 seconds, 26.9 MB/s

[root@test1 tmp]# echo noop > /sys/block/sda/queue/scheduler

[root@test1 tmp]# dd if=/dev/sda1 f=/tmp/test bs=2M count=300

300+0 records in

300+0 records out

629145600 bytes (629 MB) copied, 17.508 seconds, 35.9 MB/s

测试结果:

第一 deadline,用了15.1331秒,速度为41.6MB/s

第二 noop,用了17.508秒,速度为35.9MB/s

第三 anticipatory,用了23.3617秒,速度为26.9MS/s

第四 cfq,用了36.9544秒,速度为17.0MB/s

五)ionice

ionice可以更改任务的类型和优先级,不过只有cfq调度程序可以用ionice.

有三个例子说明ionice的功能:

采用cfq的实时调度,优先级为7

ionice -c1 -n7  -ptime dd if=/dev/sda1 f=/tmp/test bs=2M count=300&

采用缺省的磁盘I/O调度,优先级为3

ionice -c2 -n3  -ptime dd if=/dev/sda1 f=/tmp/test bs=2M count=300&

采用空闲的磁盘调度,优先级为0

ionice -c3 -n0  -ptime dd if=/dev/sda1 f=/tmp/test bs=2M count=300&

ionice的三种调度方法,实时调度最高,其次是缺省的I/O调度,最后是空闲的磁盘调度.

ionice的磁盘调度优先级有8种,最高是0,最低是7.

注意,磁盘调度的优先级与进程nice的优先级没有关系。

一个是针对进程I/O的优先级,一个是针对进程CPU的优先级。

总结:

1、CFQ和DEADLINE考虑的焦点在于满足零散IO请求上。对于连续的IO请求,比如顺序读,并没有做优化。为了满足随机IO和顺序IO混合的场景,Linux还支持ANTICIPATORY调度算法。ANTICIPATORY的在DEADLINE的基础上,为每个读IO都设置了6ms的等待时间窗口。如果在这6ms内OS收到了相邻位置的读IO请求,就可以立即满足。

IO调度器算法的选择,既取决于硬件特征,也取决于应用场景。

在传统的SAS盘上,CFQ、DEADLINE、ANTICIPATORY都是不错的选择;

对于专属的数据库服务器,DEADLINE的吞吐量和响应时间都表现良好

然而

在新兴的固态硬盘比如SSD、Fusion IO上,最简单的NOOP反而可能是最好的算法,因为其他三个算法的优化是基于缩短寻道时间的,而固态硬盘没有所谓的寻道时间且IO响应时间非常短。

2、对于数据库应用, Anticipatory Scheduler 的表现是最差的。Deadline 在 DSS 环境表现比 cfq 更好一点,而

cfq 综合来看表现更好一些

。这也难怪 RHEL默认的 IO 调度器设置为 cfq

### 回答1: 当Linux磁盘IO使用过高时,需要采取以下措施进行处理: 1. 检查磁盘IO性能:使用命令"iostat"或"iotop"来查看各个磁盘IO使用情况,确定是哪一个磁盘IO使用过高。 2. 确定高IO进程:使用命令"pidstat" 或 "iotop"查找到占用磁盘IO最高的进程,并确认其是否为系统进程,或者可能是误操作引起的异常进程。 3. 优化高IO进程:对于占用IO高的进程,可以考虑进行优化操作,例如优化数据库、调整程序逻辑、增加缓存等,以降低其IO使用率。 4. 调整IO调度器:对于某些特定的磁盘IO问题,可以尝试调整IO调度器,如将默认的"cfq"调度器改为"deadline"或"Noop"调度器,通过更改调度算法来优化磁盘IO性能。 5. 添加缓存:使用缓存技术,如使用Redis或Memcached等内存数据库,将频繁访问的数据存储在内存中,减轻磁盘IO负担。 6. 增加磁盘吞吐量:如果磁盘负载过高,可以考虑增加磁盘吞吐量,如使用RAID技术或增加磁盘数量。 7. 优化文件系统:对于某些特定的文件系统,可以通过调整文件系统参数来优化磁盘IO性能,如调整磁盘超时时间、缓存大小等。 8. 检查磁盘是否故障:如果上述措施都没有明显效果,可以检查磁盘是否存在硬件故障,包括磁盘本身是否有错误或磁盘连接是否不稳定,必要时更换磁盘。 总之,处理Linux磁盘IO使用过高需要综合考虑以上各个方面,根据具体情况进行相应的优化和调整,以降低IO使用率并提升系统性能。 ### 回答2: 当Linux磁盘IO使用过高时,可以采取以下处理方法: 1. 分析原因:首先,需要通过系统监控工具(如top、iostat等)查看磁盘IO使用过高的具体原因。可能的原因包括磁盘读写操作过多、磁盘故障、应用程序限制、系统配置不当等。 2. 优化磁盘IO:通过优化系统的文件系统,可以提高磁盘IO性能。可以考虑使用高性能的文件系统(如XFS、Btrfs)来替换默认的文件系统,或者进行磁盘分区以减少IO负载。此外,可以调整文件系统的挂载参数、提高磁盘缓存等方式来提升磁盘IO性能。 3. 优化应用程序:如果磁盘IO使用过高是由于某些应用程序所引起的,可以对这些应用程序进行优化。例如,优化数据库的读写操作,使用缓存技术减少磁盘IO等。 4. 检查磁盘健康状态:磁盘故障可能导致磁盘IO使用过高。因此,需要定期检查磁盘的健康状态,并及时更换坏盘。 5. 调整系统配置:根据服务器的硬件和实际需求,适当调整系统的参数配置。例如,可以调整磁盘调度算法、调整内核参数等来优化磁盘IO性能。 6. 负载均衡:如果是多台服务器组成的集群环境,可以通过负载均衡的方式来分摊磁盘IO负载。将磁盘IO请求均匀分布到多个磁盘上,可以提高整个系统磁盘IO性能。 总之,处理Linux磁盘IO使用过高需要综合考虑软硬件环境,并通过优化系统配置、优化应用程序、检修磁盘等方式来提高磁盘IO性能。 ### 回答3: 当Linux磁盘IO使用过高时,有几个常见原因和相应的处理方法。 首先,可能是由于过多的并发读写操作导致的磁盘IO使用过高。可通过增加磁盘数量或者使用RAID等技术来提高磁盘吞吐量,分散读写负载。可以使用工具如iostat来监测磁盘IO使用情况并定位问题。 其次,可能是因为系统频繁进行磁盘同步操作导致的磁盘IO使用过高。在Linux系统中,可以通过修改文件系统的挂载参数来调整同步策略,如在/etc/fstab文件中将sync参数改为async,或者使用noatime参数禁止更新最后访问时间。这些操作可以减少对磁盘的同步写操作,提高性能。 另外,可能是因为某些应用程序或进程不断进行大量的小文件读写操作导致的磁盘IO使用过高。可以通过使用工具如iotop来查看系统中哪些进程消耗大量的IO资源,并找出造成问题的进程。然后可以调整相应的应用程序设置或者优化代码逻辑,减少其对磁盘的读写负载。 此外,还可以通过调整系统内核参数来优化磁盘IO性能。例如,可以增加内核中针对磁盘IO操作的线程数量,修改相关的文件系统参数等。需要谨慎地调整这些参数,可以参考相关的文档或咨询专业人士。 总之,针对Linux磁盘IO使用过高的问题,可以采取多种手段进行处理,包括优化应用程序设计、调整系统配置和内核参数等。根据具体的情况和需求,选择相应的方法进行优化,以提高磁盘IO性能和系统稳定性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值