Lustre性能优化方案

博客公告:(1)本博客所有博客文章搬迁至《博客虫》http://www.blogchong.com/

(2)文章对应的源码下载链接参考博客虫网站首页的“代码GIT”直通车;

(3)更多的相关文章更新,以及代码等,请关注博客虫网站,网站中有技术Q群,以及代码共享链接。

 

 1 Lustre性能优化参考

 

1.1 网络带宽

网络带宽往往决定着lustre文件系统的聚合带宽。Lustre是通过多个OSS同时读取数据来提高系统整体的读写性能,然而,如果网络传输的性能过低,则无法发挥lustre文件系统的性能优势。

从以下几点考虑网络带宽对性能的影响:

²  网络类型(TCP/IP网络及Infiniband网络)

²  网卡类型(千兆网/万兆网)

²  网卡数量及绑定方式(几个网卡绑定一起)

²  网卡绑定模式

补充:

Ø  通常情况下Infiniband网络性能远远高于TCP/IP网络,但成本较高

Ø  万兆网比千兆网性能高

Ø  网卡绑定模式一般为6

 

1.2 Lustre自身设置

Luster自身设置主要是条块数(即OST的个数)及如何条块化,这两方面也是lustre实现I/O并发的关键。条带化能够使系统达到并发的目的,从而影响了系统的性能。

Luster自身设置对系统性能的影响主要从以下几个方面:

²  条块大小(stripesize,min=64KB)

²  条块数(stripecount)

²  起始块数(start-ost,即条块起始位置)

补充:

Ø  通常情况下start-ost默认为-1,不需要进行修改,该设置即不指定初始位置,能够很好达到负载均衡的目的

Ø  通常情况下lustre条块的大小的增加,聚合带宽总体呈下降趋势,当条块过大时,某一时间内的多个I/O发生在同一个OST上,造成I/O等待,通常设置为64KB

Ø  通常情况下,随着条块数增加,聚合带宽总体呈上升趋势,在一定的环境下,合理的配置OST可以良好的发挥lustre的系统性能

 

1.3 客户端设置

Lustre文件系统中,客户端生成一个全局存储空间,用户数据通过客户端存入lustre文件系统中,所客户端的设置也会影响系统的性能。

主要从以下几点:

²  单个客户端进程数(连接数)

²  读写块大小

²  客户端数量

补充:

Ø  随着连接数(进程数)的增加,聚合带宽开始呈上升趋势,到一定程度后稳定(此时系统性能尚未达到饱和),随着连接数的增加,带宽开始下降

Ø  随着I/O读写块的大小增加,聚合带宽开始呈现上升趋势,到一定程度后稳定,随后增加块大小聚合带宽反而下降,当64KB~64MB大小时,保持稳定

Ø  随着客户端数目的增加,读模式下的聚合带宽明显提高,而写模式下的聚合带宽则变化不明显。

 

1.4 存储RAID

Luster底层存储设备采用通用存储设备,可以是单磁盘,也可以是RAID,也可以是LVP,大部分采用RAID方式,既能保证聚合存储容量,又能提供数据保护。

主要从以下几点说明:

²  RAID方式(硬RAID/软RAID)

²  RAID模式(RAID0/1/2/3/4/5/6/10/01)

²  硬RAID卡类型

²  做RAID的磁盘类型(SATA、SAS、SSD)

补充:

Ø  通常情况下,lustre文件系统底层采用硬RAID的方式进行底层存储,性能远远大于软RAID,但成本高

Ø  Luster通常做RAID6,提高数据保护

Ø  OST磁盘一般采用低成本的SATA盘,而MDS则一般采用SSD

 

2 Lustre小文件优化

 

2.1 整体设置

(1)通过应用聚合读写提高性能,比如对小文件进行Tar,或创建大文件或通过loopback mount来存储小文件。小文件系统调用开销和额外的I/O开销非常大,应用聚合优化可以显著提高性能。另外,可以使用多节点、多进程/多线程尽可能通过聚合来提高I/O带宽。
(2)应用采用O_DIRECT方式进行直接I/O,读写记录大小设置为4KB,与文件系统保持一致。对输出文件禁用locking,避免客户端之间的竞争。
(3)应用程序尽量保证写连续数据,顺序读写小文件要明显优于随机小文件I/O。
(4)OST采用SSD或更多的磁盘,提高IOPS来改善小文件性能。创建大容量OST,而非多个小容量OST,减少日志、连接等负载。
(5)OST采用RAID 1+0替代RAID 5/6,避免频繁小文件I/O引起的数据校验开销。

 

2.2 系统设置

(1)禁用所有客户端LNET debug功能:缺省开启多种调试信息,sysctl -w lnet.debug=0,减少系统开销,但发生错误时将无LOG可询。
(2)增加客户端Dirty Cache大小:lctl set_param osc.max_rpcs_in_flight,缺省为8,提升至32将提高数据和元数据性能。不利之处是如果服务器压力很大,可能反而会影响性能。
(4)控制Lustre striping:lfs setstripe -c 0/1/-1 /path/filename,如果OST对象数大于1,小文件性能会下降,因此将OST对象设置为1。
(5)客户端考虑使用本地锁:mount -t lustre -o localflock,如果确定多个进程从同一个客户端进行写文件,则可用localflock代替flock,减少发送到MDS的RPC数量。
(6)使用loopback mount文件:创建大Lustre文件,与loop设备关联并创建文件系统,然后将其作为文件系统进行mount。小文件作用其上,则原先大量的MDS元数据操作将转换为OSS读写操作,消除了元数据瓶颈,可以显著提高小文件性能。这种方法应用于scratch空间可行,但对于生产数据应该谨慎使用,因为Lustre目前工作在这种模式下还存在问题。操作方法如下:
 dd if=/dev/zero of=/mnt/lustre/loopback/scratch bs=1048576 count=1024 
 losetup /dev/loop0 /mnt/lustre/loopback/scratch
 mkfs -t ext4 /dev/loop0 
 mount /dev/loop0 /mnt/losf

 

3 文档说明

Ø  Lustre文件系统的性能优化研究-2011-王博,李先国,张晓

Ø  基于软RAID的lustre性能影响要素简析-2008-张丹丹,姚继峰

Ø  Luster I/O性能最佳实践

Ø  Luster文件系统I/O性能的分析和改进-林松涛,周恩强,廖湘科

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值