Linux调优-I/O

6.0 I/O监控介绍

磁盘I/O子系统是Linux系统中最慢的部分.这个主要是归于CPU到物理操作磁盘之间距离(译注:盘片旋转以及寻道).如果拿读取磁盘和内存的时间作比较就是分钟级到秒级,这就像7天和7分钟的区别.因此本质上,Linux内核就是要最低程度的降低I/O.本章将诉述内核在磁盘和内存之间处理数据的这个过程中,哪些地方会产生I/O.

6.1读和写数据-内存页
Linux
内核将硬盘I/O进行分页,多数Linux系统的默认页大小为4K.读和写磁盘块进出到内存都为4K页大小.你可以使用time这个命令加-v参数,来检查你系统中设置的页大小:


[
root @monitor ~ ] # /usr/bin/time -v date
Fri Sep 25 16: 46: 35CST 2009
Command being timed: "date"
User time (seconds ): 0.00
System time (seconds ): 0.00
Percent of CPU this job got: ? %
Elapsed ( wallclock ) time (h:mm:ss or m:ss ): 0: 00.00
Average shared text size (kbytes ): 0
Average unshared data size (kbytes ): 0
Average stack size (kbytes ): 0
Average total size (kbytes ): 0
Maximum resident set size (kbytes ): 0
Average resident set size (kbytes ): 0
Major (requiring I /O )page faults: 0
Minor (reclaiming a frame )page faults: 183
Voluntary context switches: 1
Involuntary context switches: 1
Swaps: 0
File system inputs: 0
File system outputs: 0
Socket messages sent: 0
Socket messages received: 0
Signals delivered: 0
Page size (bytes ): 4096
Exit status: 0

6.2 Major and Minor Page Faults(译注:主要页错误和次要页错误)

Linux,类似多数的UNIX系统,使用一个虚拟内存层来映射硬件地址空间.当一个进程被启动,内核先扫描CPU caches和物理内存.如果进程需要的数据在这2个地方都没找到,就需要从磁盘上读取,此时内核过程就是major page fault(MPF).MPF要求磁盘子系统检索页并缓存进RAM.

一旦内存页被映射进内存的buffer cache(buff),内核将尝试从内存中读取或写入,此时内核过程就是minor page fault(MnPF).与在磁盘上操作相比,MnPF通过反复使用内存中的内存页就大大的缩短了内核时间.

以下的例子,使用time命令验证了,当进程启动后,MPFMnPF的变化情况.第一次运行进程,MPF会更多:

#/usr/bin/time -v evolution
Major (requiring I/O) page faults: 163
Minor (reclaiming a frame) page faults: 5918

第二次再运行时,内核已经不需要进行MPF,因为进程所需的数据已经在内存中:

#/usr/bin/time -v evolution
Major (requiring I/O) page faults: 0
Minor (reclaiming a frame) page faults: 5581

6.3 The File Buffer Cache(译注:文件缓存区)

文件缓存区就是指,内核将MPF过程最小化,MnPF过程最大化.随着系统不断的产生I/O,buffer cache也将不断的增加.直到内存不够,以及系统需要释放老的内存页去给其他用户进程使用时,系统就会丢弃这些内存页.结果是,很多sa(译注:系统管理员)对系统中过少的free memory(译注:空闲内存)表示担心,实际上这是系统更高效的在使用caches.

以下例子,是查看/proc/meminfo 文件:

[root @opt-001 ~ ] # cat /proc/meminfo
MemTotal: 4042656kB
MemFree: 97600kB
Buffers: 345260kB
Cached: 2874712kB
SwapCached: 0kB
Active: 2494768kB
Inactive: 1134932kB
HighTotal: 0kB
HighFree: 0kB
LowTotal: 4042656kB
LowFree: 97600kB
SwapTotal: 8193140kB
SwapFree: 8193040kB
Dirty: 1252kB
Writeback: 0kB
AnonPages: 409484kB
Mapped: 1253336kB
Slab: 221056kB
PageTables: 20172kB
NFS_Unstable: 0kB
Bounce: 0kB
CommitLimit: 10214468kB
Committed_AS: 2218724kB
VmallocTotal: 34359738367kB
VmallocUsed: 267224kB
VmallocChunk: 34359469767kB
HugePages_Total: 0
HugePages_Free: 0
HugePages_Rsvd: 0
Hugepagesize: 2048kB

可以看出,这个系统总计有4GB (Memtotal)的可用内存.当前的空闲内存为96MB (MemFree),有337 MB内存被分配磁盘写操作(Buffers),还有2.8 GB页用于读磁盘(Cached).

内核这样是通过MnPF机制,而不代表所有的页都是来自磁盘.通过以上部分,我们不可能确认系统是否处于瓶颈中.

6.4 Type of Memory Pages

Linux内核中,memory pages3,分别是:

1,Read Pages -这些页通过MPF从磁盘中读入,而且是只读.这些页存在于BufferCache中以及包括不能够修改的静态文件,二进制文件,还有库文件.当内核需要它们时,将读取到内存中.如果内存不足,内核将释放它们回空闲列表中.程序再次请求时,则通过MPF再次读回内存.

2,Dirty Pages -这些页是内核在内存中已经被修改过的数据页.当这些页需要同步回磁盘上,pdflush负责写回磁盘.如果内存不足,kswapd (pdflush一起)将这些页写回到磁盘上并释放更多的内存.

3,Anonymous Pages -这些页属于某个进程,但是没有任何磁盘文件和它们有关.他们不能和同步回磁盘.如果内存不足,kswapd将他们写入swap分区上并释放更多的内存(”swapping” pages).

6.5 Writing Data Pages Back to Disk

应用程序有很多选择可以写脏页回磁盘上,可通过I/O调度器使用fsync()sync()这样的系统函数来实现立即写回.如果应用程序没有调用以上函数,pdflush进程会定期与磁盘进行同步.

#ps -ef | grep pdflush
root 186 6 0 18:04 ? 00:00:00 [pdflush]

7.0监控I/O

当觉得系统中出现了I/O瓶颈时,可以使用标准的监控软件来查找原因.这些工具包括了top,vmstat,iostat,sar.它们的输出结果一小部分是很相似,不过每个也都提供了各自对于性能不同方面的解释.以下章节就将讨论哪些情况会导致I/O瓶颈的出现.

7.1 Calculating IO’s Per Second(译注:IOPS的计算)

每个I/O请求到磁盘都需要若干时间.主要是因为磁盘的盘片必须旋转,机头必须寻道.磁盘的旋转常常被称为”rotational delay”(RD),机头的移动称为”diskseek”(DS).一个I/O请求所需的时间计算就是DS加上RD.磁盘的RD基于设备自身RPM单位值(译注:RPMRevolutions Perminute的缩写,是转/每分钟,代表了硬盘的转速).一个RD就是一个盘片旋转的半圆.如何计算一个10K RPM设备的RD值呢:

1, 10000 RPM / 60 seconds (10000/60 = 166RPS)
2,
转换为166分之1的值(1/166 = 0.006 seconds/Rotation)
3,
单位转换为毫秒(6 MS/Rotation)
4,
旋转半圆的时间(6/2 = 3MS)也就是RD
5,
加上平均3 MS的寻道时间(3MS + 3MS = 6MS)
6,
加上2MS的延迟(6MS + 2MS = 8MS)
7, 1000 MS / 8 MS (1000/8 = 125 IOPS)

每次应用程序产生一个I/O,10K RPM磁盘上都要花费平均8MS.在这个固定时间里,磁盘将尽可能且有效率在进行读写磁盘.IOPS可以计算出大致的I/O请求数,10K RPM磁盘有能力提供120-150IOPS.评估IOPS的效能,可用每秒读写I/O字节数除以每秒读写IOPS数得出.

7.2 Random vs Sequential I/O(译注:随机/顺序I/O)

per I/O产生的KB字节数是与系统本身workload相关的,2种不同workload的类型,它们是sequentialrandom.

7.2.1 Sequential I/O(译注:顺序IO)

iostat命令提供信息包括IOPS和每个I/O数据处理的总额.可使用iostat -x查看.顺序的workload是同时读顺序请求大量的数据.这包括的应用,比如有商业数据库(database)在执行大量的查询和流媒体服务.在这个workload,KB per I/O的比率应该是很高的.Sequential workload是可以同时很快的移动大量数据.如果每个I/O都节省了时间,那就意味了能带来更多的数据处理.


[
root @opt-001 mysql_db ] # iostat -x 1
Linux 2.6.18- 164.el5 (opt-001.jobkoo.com ) 09 / 27 / 2009

avg-cpu: %user % nice %system %iowait %steal %idle
0.69 0.02 1.01 0.15 0.00 98.13

Device: rrqm /s wrqm /s r /s w /s rsec /s wsec /s avgrq-sz avgqu-sz await svctm %util
sda 0.15 36.28 0.75 12.11 27.35 387.62 32.25 0.31 24.33 0.54 0.69
sda1 0.00 0.00 0.00 0.00 0.00 0.00 9.99 0.00 5.29 4.43 0.00
sda2 0.10 17.08 0.40 6.56 10.18 189.16 28.65 0.07 9.96 0.47 0.33
sda3 0.00 0.00 0.00 0.00 0.00 0.00 46.30 0.00 20.87 20.60 0.00
sda4 0.00 0.00 0.00 0.00 0.00 0.00 2.00 0.00 17.20 17.20 0.00
sda5 0.04 19.21 0.36 5.55 17.16 198.46 36.49 0.24 41.25 0.74 0.44

avg-cpu: %user % nice %system %iowait %steal %idle
0.00 0.00 0.00 0.25 0.00 99.75

Device: rrqm /s wrqm /s r /s w /s rsec /s wsec /s avgrq-sz avgqu-sz await svctm %util
sda 0.00 60.00 0.00 114.00 0.00 1392.00 12.21 0.44 3.85 0.16 1.80
sda1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sda2 0.00 36.00 0.00 83.00 0.00 952.00 11.47 0.38 4.61 0.16 1.30
sda3 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sda4 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sda5 0.00 24.00 0.00 31.00 0.00 440.00 14.19 0.06 1.81 0.16 0.50

avg-cpu: %user % nice %system %iowait %steal %idle
0.00 0.00 0.00 0.00 0.00 100.00

Device: rrqm /s wrqm /s r /s w /s rsec /s wsec /s avgrq-sz avgqu-sz await svctm %util
sda 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sda1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sda2 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sda3 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sda4 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sda5 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

评估IOPS 的效能,可用每秒读写I/O 字节数除以每秒读写IOPS 数得出,比如

rkB/s除以r/s
wkB/s
除以w/s

53040/105 = 505KB per I/O
71152/102 = 697KB per I/O
在上面例子可看出,每次循环下,/dev/sdaper I/O都在增加.

7.2.2 Random I/O(译注:随机IO)

Randomworklaod环境下,不依赖于数据大小的多少,更多依赖的是磁盘的IOPS.WebMail服务就是典型的Random workload.I/O请求内容都很小.Random workload是同时每秒会有更多的请求数产生.所以,磁盘的IOPS数是关键.


# iostat -x 1


avg-cpu: %user % nice %sys %idle
2.04 0.00 97.96 0.00

Device: rrqm /s wrqm /s r /s w /s rsec /s wsec /s rkB /s wkB /s avgrq-sz avgqu-sz await svctm %util
/dev /sda 0.00 633.67 3.06 102.31 24.49 5281.63 12.24 2640.82 288.89 73.67 113.89 27.22 50.00
/dev /sda1 0.00 5.10 0.00 2.04 0.00 57.14 0.00 28.57 28.00 1.12 55.00 55.00 11.22
/dev /sda2 0.00 628.57 3.06 100.27 24.49 5224.49 12.24 2612.24 321.50 72.55 121.25 30.63 50.00
/dev /sda3 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

avg-cpu: %user % nice %sys %idle
2.15 0.00 97.85 0.00

Device: rrqm /s wrqm /s r /s w /s rsec /s wsec /s rkB /s wkB /s avgrq-sz avgqu-sz await svctm %util
/dev /sda 0.00 41.94 6.45 130.98 51.61 352.69 25.81 3176.34 19.79 2.90 286.32 7.37 15.05
/dev /sda1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
/dev /sda2 0.00 41.94 4.30 130.98 34.41 352.69 17.20 3176.34 21.18 2.90 320.00 8.24 15.05
/dev /sda3 0.00 0.00 2.15 0.00 17.20 0.00 8.60 0.00 8.00 0.00 0.00 0.00 0.00

计算方式和之前的公式一致:

2640/102 = 23KB per I/O
3176/130 = 24KB per I/O

(译注:对于顺序I/O来说,主要是考虑读取大量数据的能力即KB per request.对于随机I/O系统,更需要考虑的是IOPS)

7.3 When Virtual Memory Kills I/O

如果系统没有足够的RAM响应所有的请求,就会使用到SWAP device.就像使用文件系统I/O,使用SWAP device代价也很大.如果系统已经没有物理内存可用,那就都在SWAP disk上创建很多很多的内存分页,如果同一文件系统的数据都在尝试访问SWAP device,那系统将遇到I/O瓶颈.最终导致系统性能的全面崩溃.如果内存页不能够及时读或写磁盘,它们就一直保留在RAM.如果保留时间太久,内核又必须释放内存空间.问题来了,I/O操作都被阻塞住了,什么都没做就被结束了,不可避免地就出现kernel panicsystem crash.

下面的vmstat示范了一个内存不足情况下的系统:

procs ———–memory———- —swap– —–io—- –system–—-cpu—-
r b swpd free buffcache si so bibo in cs us sy id wa
17 0 1250 3248 458201488472 30 132 992 0 2437 765723 50 0 23
11 0 1376 3256 458201488888 57 245 416 0 2391 717310 90 0 0
12 0 1582 1688 458281490228 63 131 1348 76 2432 7315 1090 0 10
12 2 3981 1848 45468 1489824185 56 2300 68 2478 9149 15 12 0 73
14 2 10385 2400 444841489732 0 87 1112 20 2515 116200 12 0 88
14 2 12671 2280 43644 148881676 51 1812 204 2546 11407 20 45 0 35

这个结果可看出,大量的读请求回内存(bi),导致了空闲内存在不断的减少(free).这就使得系统写入swap device的块数目(so)swap空间(swpd)在不断增加.同时看到CPU WIO time(wa)百分比很大.这表明I/O请求已经导致CPU开始效率低下.

要看swaping对磁盘的影响,可使用iostat检查swap分区

首先利用fdisk -l查看一下系统swap是哪个分区

[root @monitor ~ ] # fdisk -l

Disk /dev /sda: 320.0GB, 320072933376bytes
255heads, 63sectors /track, 38913cylinders
Units = cylinders of 16065 * 512= 8225280bytes

Device Boot Start End Blocks Id System
/dev /sda1 * 1 25 200781 83 Linux
/dev /sda2 26 5247 41945715 83 Linux
/dev /sda3 5248 5769 4192965 82 Linux swap /Solaris
/dev /sda4 5770 38913 266229180 5 Extended
/dev /sda5 5770 38913 266229148+ 83 Linux

# iostat -x 1 sda3

avg-cpu: %user % nice %sys %idle
0.00 0.00 100.00 0.00

Device: rrqm /s wrqm /s r /s w /s rsec /s wsec /s rkB /s wkB /s avgrq-sz avgqu-sz await svctm %util
/dev /sda 0.00 1766.67 4866.67 1700.00 38933.33 31200.00 19466.67 15600.00 10.68 6526.67 100.56 5.08 3333.33
/dev /sda1 0.00 833.33 33.33 1700.00 266.67 22933.33 133.33 11466.67 13.38 6133.33 358.46 11.35 1966.67
/dev /sda2 0.00 0.00 4833.33 0.00 38666.67 533.33 19333.33 266.67 8.11 373.33 8.07 6.90 87.00
/dev /sda3 0.00 933.33 0.00 0.00 0.00 7733.33 0.00 3866.67 0.00 20.00 2145.07 7.37 200.00

在这个例子中,swap device(/dev/sda3) 和 file system device(/dev/sda1)在互相作用于I/O. 其中任一个会有很高写请求(w/s),也会有很高wait time(await),或者较低的服务时间比率(svctm).这表明2个分区之间互有联系,互有影响.

7.4结论

I/O性能监控包含了以下几点:

1,CPU有等待I/O情况时,那说明磁盘处于超负荷状态.
2,
计算你的磁盘能够承受多大的IOPS.
3,
确定你的应用是属于随机或者顺序读取磁盘.
4,
监控磁盘慢需要比较wait time(await)service time(svctm).
5,
监控swap和系统分区,要确保virtual memory不是文件系统I/O的瓶颈.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值