ubuntu 安装 glusterFS
环境:
3个节点,1个做clinet端,2个做server端。
两个server端配置:
1.执行 sudo apt-get install software-properties-common
2.执行 sudo add-apt-repository ppa:gluster/glusterfs-3.8
3.执行 sudo apt-get update
4.执行 sudo apt-get install glusterfs-server
5.执行 sudo apt install sysv-rc-conf
6.执行 sudo sysv-rc-conf glusterd on
7.启动 service glusterfs-server start
集群做关联:
如一个server节点为hosts1,另一个server节点为host2
1.在host1节点执行 sudo gluster peer probe host2(在任一节点执行都行,连接另外一个节点)
2.查看集群状态:sudo gluster peer status
3.删除集群:在host1节点上执行 gluster peer detach host2
创建VOLUME:
1.创建复制卷 sudo gluster volume create gv replica 2 transport tcp host1:/home/gfs host2:/home/gfs force //其中,gv是卷名称。 replica 2 表示复制2个节点。 host1:/home/gfs2 表示复制到host1节点/home/gfs下, host2:/home/gfs 表示复制到host2节点/home/gfs下
2.查看volume的具体信息 gluster volume info
3.查看指定的volume的具体信息: gluster volume info gv //gv为指定的volume
4.开启volume :sudo gluster volume start gv //gv为指定的volume
5,查看glusterfs版本 glusterd --version
客户端操作:
1.执行:sudo apt install glusterfs-client
2.挂载节点: sudo mount -t glusterfs host1:/gv /home/data 挂载host1节点,gv是卷名称,/home/data 是本地挂载地址。
3.测试,向客户端/home/data下放数据,host1:/home/gfs host2:/home/gfs 都有数据。
4.测试,服务器节点断网,重启网络,查看数据还在。
5.测试,服务器其中一个节点宕机。机后重启,需要手动将volume停止,再开启。
执行:gluster volume stop <volume name>
gluster volume start <volume name> force
其他:
1.数据监控检测以及手动触发完整修复(服务端执行):gluster volume heal 卷的名称
2.增加节点(服务端执行): gluster peer probe ip/主机名
添加brick到已经存在的volume,如上次存在2个replica,本次要改成3个:sudo gluster volume add-brick datavol2 replica 3 node3:/home/gfs
3.客户端查看挂载信息 df
环境:
3个节点,1个做clinet端,2个做server端。
两个server端配置:
1.执行 sudo apt-get install software-properties-common
2.执行 sudo add-apt-repository ppa:gluster/glusterfs-3.8
3.执行 sudo apt-get update
4.执行 sudo apt-get install glusterfs-server
5.执行 sudo apt install sysv-rc-conf
6.执行 sudo sysv-rc-conf glusterd on
7.启动 service glusterfs-server start
集群做关联:
如一个server节点为hosts1,另一个server节点为host2
1.在host1节点执行 sudo gluster peer probe host2(在任一节点执行都行,连接另外一个节点)
2.查看集群状态:sudo gluster peer status
3.删除集群:在host1节点上执行 gluster peer detach host2
创建VOLUME:
1.创建复制卷 sudo gluster volume create gv replica 2 transport tcp host1:/home/gfs host2:/home/gfs force //其中,gv是卷名称。 replica 2 表示复制2个节点。 host1:/home/gfs2 表示复制到host1节点/home/gfs下, host2:/home/gfs 表示复制到host2节点/home/gfs下
2.查看volume的具体信息 gluster volume info
3.查看指定的volume的具体信息: gluster volume info gv //gv为指定的volume
4.开启volume :sudo gluster volume start gv //gv为指定的volume
5,查看glusterfs版本 glusterd --version
客户端操作:
1.执行:sudo apt install glusterfs-client
2.挂载节点: sudo mount -t glusterfs host1:/gv /home/data 挂载host1节点,gv是卷名称,/home/data 是本地挂载地址。
3.测试,向客户端/home/data下放数据,host1:/home/gfs host2:/home/gfs 都有数据。
4.测试,服务器节点断网,重启网络,查看数据还在。
5.测试,服务器其中一个节点宕机。机后重启,需要手动将volume停止,再开启。
执行:gluster volume stop <volume name>
gluster volume start <volume name> force
其他:
1.数据监控检测以及手动触发完整修复(服务端执行):gluster volume heal 卷的名称
2.增加节点(服务端执行): gluster peer probe ip/主机名
添加brick到已经存在的volume,如上次存在2个replica,本次要改成3个:sudo gluster volume add-brick datavol2 replica 3 node3:/home/gfs
3.客户端查看挂载信息 df
4.客户端挂载后,测试联不通服务端,重启客户端
注意:
在设置客户端时,要保证客户端hosts 中的节点名称和服务端一致,否则会报
All subvolumes are down. Going offline until atleast one of them comes back up
如:
服务端的hosts:
192.168.6.3 node1
192.168.6.125 node2
192.168.6.171 node3
客户端必须也是:
192.168.6.3 node1
192.168.6.125 node2
192.168.6.171 node3