博客公告:
(1)本博客所有博客文章搬迁至《博客虫》http://blogchong.com/
(4)该博客内容还会继续更新,不过会慢一些。
类型 | 详细 |
备注 | 该文档是以主要用于lustre2.4版本的系统安装部署指导,此外对应版本的所有安装包已经打包在扣扣群中。 |
相关描述 | ² ² ² ² ² |
目录
1 文档说明
2 Lustre下载
3 Lustre安装过程
3.1 服务端安装顺序
(1)rpm -Uvhkernel-firmware-2.6.32-358.6.2.el6_lustre.g230b174.x86_64.rpm -f//最好升级安装
(2)rpm -Uvh bfa-firmware-3.0.3.1-1.el6.noarch.rpm-f
(3)rpm -ivhkernel-2.6.32-358.6.2.el6_lustre.g230b174.x86_64.rpm -f//最好重启下机子
(4)rpm -ivhlustre-modules-2.4.0-2.6.32_358.6.2.el6_lustre.g230b174.x86_64_gd3f91c4.x86_64.rpm-f
(5)rpm -ivh libcom_err-1.42.7.wc1-7.el6.x86_64.rpm-f
(6)rpm -ivh e2fsprogs-libs-1.42.7.wc1-7.el6.x86_64.rpm-f
(7)rpm -ivh e2fsprogs-1.42.7.wc1-7.el6.x86_64.rpm-f
(8)rpm -ivhlustre-ldiskfs-4.1.0-2.6.32_358.6.2.el6_lustre.g230b174.x86_64_gd3f91c4.x86_64.rpm-f
(9)rpm -ivhlustre-osd-ldiskfs-2.4.0-2.6.32_358.6.2.el6_lustre.g230b174.x86_64_gd3f91c4.x86_64.rpm-f
(10)rpm -ivhlustre-2.4.0-2.6.32_358.6.2.el6_lustre.g230b174.x86_64_gd3f91c4.x86_64.rpm-f
//至此,服务端的所有包安装完毕。
3.2 客户端安装顺序
(1) rpm -Uvh kernel-firmware-2.6.32-358.6.2.el6.noarch.rpm-f
(2)rpm -Uvh bfa-firmware-3.0.3.1-1.el6.noarch.rpm-f
(3)rpm -ivh kernel-2.6.32-358.6.2.el6.x86_64.rpm -f//重启机器
(4)rpm -ivhlustre-client-modules-2.4.0-2.6.32_358.6.2.el6.x86_64_gd3f91c4.x86_64.rpm-f
(5)rpm -ivhlustre-client-2.4.0-2.6.32_358.6.2.el6.x86_64_gd3f91c4.x86_64.rpm-f
//客户端安装完毕,客户端也需要升级内核,不过需要的包少多了。
3.3 安装总结
4 Lustre配置
lustre的配置也是一个繁琐的过程。Lustre是基于内核的分布式文件系统,而不是像其他一些用户态的分布式文件系统那样直接建立在ext3或者是ext4之上。Lustre需要对磁盘进行格式化,并且在格式化的过程中进行参数配置。
4.1 MDS配置:
192.168.1.100:mkfs.lustre--fsname=lustrefs --mgs --mdt --index=0 /dev/sdb
//解释下格式化磁盘的参数吧
fsname指定的是创建lustre时的文件系统名
mgs指定该机器为元数据服务器,即该机器为mds
mdt指定/dev/sdb为元数据实际数据存储位置
至于index则指定该mgs的索引号,mgs可以设置主备模式,但mdt需要在主备mds之间共享
4.2 OSS配置:
Mkfs.lustre
192.168.1.101:mkfs.lustre--fsname=lustrefs --mgsnode=192.168.1.100@tcp --ost --index=0/dev/sdb
192.168.1.102:mkfs.lustre--fsname=lustrefs --mgsnode=192.168.1.100@tcp --ost --index=1/dev/sdb
//解释格式化参数
fsname不多说
mgsnode指定oss请求元数据节点,并指明访问协议tcp
ost指定/dev/sdb为存储数据的实际位置
index这个参数可以看到两个节点是不一样的
//整个系统的实际容量是101+102的/dev/sdb的容量
4.3 系统挂载
MDS(192.168.1.100):
mount -t lustre /dev/sdb /mnt/mdt
OSS(192.168.1.101/102):
mount -t lustre /dev/sdb /mnt/ost0
mount -t lustre /dev/sdb /mnt/ost1
Client(192.168.1.103):
mount -t lustre 192.168.1.100@tcp:/lustrefs/mnt/lustre
//在客户端的/mnt/lustre上就可以看到101/102的/dev/sdb的容量聚合了。
OK 至此 配置完毕,可以存储东西了~~~
5 题外话
OK了,废话到此为止。
下一次博文更新应该是关于集群共享层高可用方面的,主要就是CTDB这个组件。有兴趣的可以继续关注博客。