一、前期准备
节点 | 磁盘 | 挂载点 |
---|---|---|
node1/192.168.10.5 | /dev/db1 /dev/dc1 /dev/dd1 /dev/de1 | /data/sdb1 /data/sdc1 /data/sdd1 /data/sde1 |
node2/192.168.10.6 | /dev/db1 /dev/dc1 /dev/dd1 /dev/de1 | /data/sdb1 /data/sdc1 /data/sdd1 /data/sde1 |
node2/192.168.10.7 | /dev/db1 /dev/dc1 /dev/dd1 /dev/de1 | /data/sdb1 /data/sdc1 /data/sdd1 /data/sde1 |
node2/192.168.10.8 | /dev/db1 /dev/dc1 /dev/dd1 /dev/de1 | /data/sdb1 /data/sdc1 /data/sdd1 /data/sde1 |
client/192.168.10.3 |
二、实验部署
2.1、为四台主机操作(一)
关闭防火墙,为四台主机命名
2.2 主机一操作(一)
编写fdisk脚本,同时为脚本增加权限,最后运行fdisk脚本
2.3 为四台主机操作(二)
2.4 主机一操作(二)
2.4.1 查看node2下的内容
2.4.2 查看node3下的内容
2.4.3 查看node4下的内容
2.4.4 在node2运行fdisk脚本
2.4.5 在node3运行fdisk脚本
2.4.6 在node4运行fdisk脚本
2.5 主机一操作(三)
将gfsrepo远程复制到node下的opt
2.5.1 在主机二下解压gfsrepo
2.5.2 在主机三下解压gfsrepo
2.5.3 在主机四下解压gfsrepo
2.6 yum安装
2.6.1 在node1下安装yum
2.6.2 在node2下安装yum
2.6.3 在node3下安装yum
2.6.4 在node4下安装yum
这里忘记截图了!但是操作和前面的一样
2.7 为四台主机安装glusterd
2.7.1 为四台主机删除glusterd
故障原因是版本过高导致
2.7.2 为四台主机再次安装glusterd
2.8 为四台主机启动服务
2.9 主机一操作(四)
查看glusterd版本
2.10 主机一操作(五)
添加节点到存储信任池中(只要在一台Node节点上添加其它节点即可)
2.10.1 在node2上查看群集状态
2.10.2 在node3上查看操作
2.10.3 在node4上查看操作
2.11 在node1创建分布式卷
2.12 在node1创建条带卷
2.13 在node1创建复制
2.14 在node1创建分布式条带卷
2.15 在node1创建分布式复制卷
2.16 在node1查看所有卷的列表
2.17 客户端操作
2.17.1 在客户端操作(一)
解压gfsrepo压缩包
2.17.2 在客户端操作(二)
yum安装
2.17.3 在客户端操作(三)
安装glusterd
2.17.4 在客户端操作(三)
创建文件夹,编辑hosts
2.17.5 在客户端操作(四)
挂载Gluster文件系统
2.17.6 在客户端操作(五)
2.18 查看分布式
2.19 查看条带式
2.20 查看复制
2.21 查看分布式条带
2.22 查看分布式复制
2.23 破坏性测试
三、其余扩展命令
查看GFS卷 | gluster volume list |
---|---|
查看所有卷的命信息 | gluster volume info |
查看所有卷的状态 | gluster volume status |
停止一个卷 | gluster volume stop dis-tripe |
删除一个卷 | gluster volume delete dis-tripe |
设置卷的访问控制 | gluster volume set dis-rep auth.deny 192.168.10.3(仅拒绝) gluster volume set dis-rep auth.deny 192.168.80.*(设置192.168.10.80望断所有IP地址都能访问dis-rep卷——分布式复制) |