centos6.5搭建GlusterFS分布式文件系统
条件:所需要的镜像—CentOS-6.5-x86_64-bin-DVD.iso、有关GlusterFS服务的包—gluster
使用本地yum源构建GlusterFS(centos6.5):
-
yum install -y createrepo xfsprogs
#安装createrepo、xfsgrogs
###若运行后出现安装失败,则是没有使用镜像作为本地yum源才无法安装需要:
mount /dev/sr0 /mnt
cd /etc/yum.repos.d/
mkdir centos
mv Centos-* centos
vim Glusterfs.repo
[Glusterfs] name=Glusterfs baseurl=file:///mnt enabled=1 gpgcheck=0
yum clean all
yum list
做好这些配置后使用yum install -y createrepo xfsgrogs -
mkdir -p /tmp/Glusterfs
#创建作为本地yum源的目录
##使用winscp上传有关GlusterFS的所有安装包–rpm.zip到/tmp/Glusterfs
cd /tmp/Glusterfs
uzip rpm.zip
#解压缩
createrepo /tmp/Glusterfs
#使用createrepo创建repo -
配置本地yum源作为安装GlusterFS,安装好createrepo、xfsgrogs和卸载后直接进行以下操作:
vim /etc/yum.repo./glusterfs.repo
[Glusterfs]
name=Glusterfs rpm
baseurl=file:///tmp/Glusterfs
enabled=1
gpgcheck=0
yum clean all
yum list
yum install -y glusterfs-server #安装GlusterFS
##关闭防火墙及开机自启
server iptables stop
chkconfig iptables off
##禁止selinux
#vim /etc/seliun/config
sed -i '/SELINUX/{s/permissive/disabled/}' /etc/selinux/config
##启动GlusterFS服务并开机自启
service glusterd start
chkconfig glusterd on
##添加磁盘并分区
fdisk /dev/sdb
n
p
w
##刷新磁盘
partprobe /dev/sdb1
##格式化磁盘
mkfs.xfs /dev/sdb1
##创建挂载点
mkdir -p /export/brick
##开机自动挂载
vim /etc/fstab
/dev/sdb1 /export/brick xfs default 0 0
mount -a #检查并挂载
df -Th
mkdir -p /export/brick/gv0 #创建存储目录
###以同样方式另创建一台或拍快照并以快照为基础创建完整的克隆机(记得修改网卡配置,并重启网络、gluster服务,留个快照以防万一),个人建议第二种节省时间
##添加节点到集群,至少需要两台机子
gluster peer probe IP
gluster peer probe IP
gluster peer status # 查询节点状态
##创建系统卷gv0、启动和查看系统卷信息
gluster volume create gv0 replica 2 IP:/export/brick/gv0 IP:/export/brick/gv0
gluster volume start gv0
gluster volume info
##使用客户端挂载文件系统并查看
mount -t gluster IP:/gv0 /mnt
df -Th
###运维操作:至少需要四台机子,可以利用之前的快照进行克隆两台(记得修改网卡配置,并重启网络、gluster服务,留个快照以防万一)
#添加节点
gluster peer probe IP
#添加brick
gluster volume add-brick gv0 IP:export/brick/gv0 IP:/export/brick/gv0
#查看卷状态、启动和停止卷:
gluster volume status
gluster volume start/stop VOLUME
#修复卷:
gluster volume heal mamm-volume #只修复有问题的卷
gluster volume heal mamm-volume full #修复所有文件
gluster volume heal mamm-volume info #查看自愈详情
#移除brick:
gluster volume remove-brick IP:export/brick/gv0 IP:/export/brick/gv0 start #移除brick,会进行数据迁移到其他节点;需要另一对brick开启否则报错
gluster volume remove-brick IP:export/brick/gv0 IP:/export/brick/gv0 status #查看状态
gluster volume remove-brick IP:export/brick/gv0 IP:/export/brick/gv0 commit #直接删除brick,不进行数据迁移
#删除节点
gluster peer detach IP
#删除卷
gluster volume delete VOLUME