参考官网quick install,快速配置一个4个节点的服务器。并在搭建好的集群上创建一个复制卷。
系统:centos6
过程中用到的服务器,这里如果不使用DNS来进行各服务器hostname到ip的解析,那务必将IP HOSTNAME的对应写进/etc/hosts,否则在配置集群过程中会出现找不到主机的错误。
10.125.192.84 glusterfs01
10.125.192.85 glusterfs02
10.125.192.86 glusterfs03
10.125.192.87 glusterfs04
1.安装glusterfs
在centos的yum源里已经有glusterfs的repo文件,直接安装即可。同时执行命令安装glusterfs所需软件。
在所有节点上执行以下命令
yum install centos-release-gluster -y
yum install xfsprogs -y
yum install glusterfs-server -y
2.准备数据盘
用于glusterfs的磁盘不需做raid,每一块磁盘都是集群中的一个存储节点。
创建分区
fdisk /dev/sdb #具体命令省略
格式化
mkfs.xfs -i size=512 /dev/sdb1
挂载
mkdir /brick/brick1
mount /dev/sdb1 /brick/brick1
#官网建议是把这个挂载加入到fstab表中,但在实际应用中,这样有一个风险,一旦/dev/sdb1出故障,可能会导致系统启动失败。建议是加入到rc.local实现开机自动挂载。
3.启动glusterfsf
/etc/init.d/glusterd start
4.配置集群
glusterfs是无状态的集群,所以没有明确的控制节点和数据节点的区分,本文中的控制节点只不过是为了管理方便,固定在其中一台操作管理整个集群。
gluster peer probe glusterfs02
gluster peer probe glusterfs03
gluster peer probe glusterfs04
#官方文档注:当使用主机名搭建整个集群时,需要在其他节点设置控制节点的主机名
gluster peer probe glusterfs01
批量执行命令:
for h in (host_list);do gluster peer probe $h;done
5.创建一个复制卷
只做简述,后面再补所支持各种卷的详细介绍!
mkdir /brick/brick1/gv0
gluster volume create gv0 replica 2 glusterfs01:/bricks/brick1/gv0 glusterfs02:/bricks/brick1/gv0 glusterfs03:/bricks/brick1/gv0 glusterfs04:/bricks/brick1/gv0
客户端挂载:
mount -t glusterfs glusterfs01:/gv0 /mnt/r-gv0/
复制卷在数据写入的时候会同时写一份到另外一个节点上。
6.查看集群状态
节点信息
[root@glusterfs01 ~]# gluster peer status
Number of Peers: 3
Hostname: glusterfs02
Uuid: 61d70e32-07db-44d7-93a1-673a08dc2994
State: Peer in Cluster (Connected)
Hostname: glusterfs03
Uuid: 2797bef9-a302-48f7-a510-b6723bd98053
State: Peer in Cluster (Connected)
Hostname: glusterfs04
Uuid: 37bd0d51-84d3-4caf-a570-bffd36b40b77
State: Peer in Cluster (Connected)
卷信息:
[root@glusterfs01 gv0]# gluster volume status
Status of volume: gv0
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick glusterfs01:/bricks/brick1/gv0 49152 0 Y 20280
Brick glusterfs02:/bricks/brick1/gv0 49152 0 Y 23699
Brick glusterfs03:/bricks/brick1/gv0 49152 0 Y 29652
Brick glusterfs04:/bricks/brick1/gv0 49152 0 Y 24566
Self-heal Daemon on localhost N/A N/A Y 19461
Self-heal Daemon on glusterfs02 N/A N/A Y 22811
Self-heal Daemon on glusterfs03 N/A N/A Y 28846
Self-heal Daemon on glusterfs04 N/A N/A Y 23971
Task Status of Volume gv0
------------------------------------------------------------------------------
There are no active volume tasks
系统:centos6
过程中用到的服务器,这里如果不使用DNS来进行各服务器hostname到ip的解析,那务必将IP HOSTNAME的对应写进/etc/hosts,否则在配置集群过程中会出现找不到主机的错误。
10.125.192.84 glusterfs01
10.125.192.85 glusterfs02
10.125.192.86 glusterfs03
10.125.192.87 glusterfs04
1.安装glusterfs
在centos的yum源里已经有glusterfs的repo文件,直接安装即可。同时执行命令安装glusterfs所需软件。
在所有节点上执行以下命令
yum install centos-release-gluster -y
yum install xfsprogs -y
yum install glusterfs-server -y
2.准备数据盘
用于glusterfs的磁盘不需做raid,每一块磁盘都是集群中的一个存储节点。
创建分区
fdisk /dev/sdb #具体命令省略
格式化
mkfs.xfs -i size=512 /dev/sdb1
挂载
mkdir /brick/brick1
mount /dev/sdb1 /brick/brick1
#官网建议是把这个挂载加入到fstab表中,但在实际应用中,这样有一个风险,一旦/dev/sdb1出故障,可能会导致系统启动失败。建议是加入到rc.local实现开机自动挂载。
3.启动glusterfsf
/etc/init.d/glusterd start
4.配置集群
glusterfs是无状态的集群,所以没有明确的控制节点和数据节点的区分,本文中的控制节点只不过是为了管理方便,固定在其中一台操作管理整个集群。
gluster peer probe glusterfs02
gluster peer probe glusterfs03
gluster peer probe glusterfs04
#官方文档注:当使用主机名搭建整个集群时,需要在其他节点设置控制节点的主机名
gluster peer probe glusterfs01
批量执行命令:
for h in (host_list);do gluster peer probe $h;done
5.创建一个复制卷
只做简述,后面再补所支持各种卷的详细介绍!
mkdir /brick/brick1/gv0
gluster volume create gv0 replica 2 glusterfs01:/bricks/brick1/gv0 glusterfs02:/bricks/brick1/gv0 glusterfs03:/bricks/brick1/gv0 glusterfs04:/bricks/brick1/gv0
客户端挂载:
mount -t glusterfs glusterfs01:/gv0 /mnt/r-gv0/
复制卷在数据写入的时候会同时写一份到另外一个节点上。
6.查看集群状态
节点信息
[root@glusterfs01 ~]# gluster peer status
Number of Peers: 3
Hostname: glusterfs02
Uuid: 61d70e32-07db-44d7-93a1-673a08dc2994
State: Peer in Cluster (Connected)
Hostname: glusterfs03
Uuid: 2797bef9-a302-48f7-a510-b6723bd98053
State: Peer in Cluster (Connected)
Hostname: glusterfs04
Uuid: 37bd0d51-84d3-4caf-a570-bffd36b40b77
State: Peer in Cluster (Connected)
卷信息:
[root@glusterfs01 gv0]# gluster volume status
Status of volume: gv0
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick glusterfs01:/bricks/brick1/gv0 49152 0 Y 20280
Brick glusterfs02:/bricks/brick1/gv0 49152 0 Y 23699
Brick glusterfs03:/bricks/brick1/gv0 49152 0 Y 29652
Brick glusterfs04:/bricks/brick1/gv0 49152 0 Y 24566
Self-heal Daemon on localhost N/A N/A Y 19461
Self-heal Daemon on glusterfs02 N/A N/A Y 22811
Self-heal Daemon on glusterfs03 N/A N/A Y 28846
Self-heal Daemon on glusterfs04 N/A N/A Y 23971
Task Status of Volume gv0
------------------------------------------------------------------------------
There are no active volume tasks