md设备linux,Linux md与LVM性能

博主在配置NAS时遇到了一个问题,使用Openfiler和RAID5阵列的4个WDRE3驱动器,发现从RAID5到LVM卷的读取性能显著下降。hdparm测试显示,在元设备上的读取速度远高于LVM卷的速度。这引发了对LVM性能的疑问。文章中,博主提供了hdparm的测试结果,显示了顺序读取速度的差异,并引用了hdparm手册页的相关部分,探讨了可能影响性能的因素。
摘要由CSDN通过智能技术生成

我正在尝试调整我的NAS,运行openfiler,并想知道为什么我从RAID 5中的4个WD RE3驱动器获得相对较差的读取性能.

编辑:请注意我说的缓冲磁盘读取速度不缓存速度

编辑:更改格式以明确有两组输出.

当我在元设备上运行hdparm时,我得到了我期望的性能水平,降低到音量,这是速度的三分之一!

任何人都知道为什么? LVM不好吗?

院长

元设备/ dev / md0结果

[root@nas2 etc]# hdparm -tT /dev/md0

/dev/md0:

Timing cached reads: 4636 MB in 2.00 seconds = 2318.96 MB/sec

Timing buffered disk reads: 524 MB in 3.01 seconds = 174.04 MB/sec

Vol group / dev / mapper / vg1-vol1结果

[root@nas2 etc]# hdparm -tT /dev/mapper/vg1-vol1

/dev/mapper/vg1-vol1:

Timing cached reads: 4640 MB in 2.00 seconds = 2320.28 MB/sec

Timing buffered disk reads: 200 MB in 3.01 seconds = 66.43 MB/sec

编辑:请参阅hdparm手册页中的部分,该部分建议这是对顺序读取性能完全有效的测试,这是我试图解决的问题.

-t Perform timings of device reads for benchmark and comparison purposes. For meaningful results,this operation should be repeated 2-3 times on an otherwise

inactive system (no other active processes) with at least a couple of megabytes of free memory. This displays the speed of reading through the buffer

cache to the disk without any prior caching of data. This measurement is an indication of how fast the drive can sustain sequential data reads under

Linux,without any filesystem overhead. To ensure accurate measurements,the buffer cache is flushed during the processing of -t using the BLKFLSBUF

ioctl. If the -T flag is also specified,then a correction factor based on the outcome of -T will be incorporated into the result reported for the -t

operation.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值