快照:保存某一时间点的状态数据
#查看demo-img有没有快照
[root@node1 ~]# rbd snap ls demo-img
# 创建快照
[root@node1 ~]# rbd snap create demo-img --snap demo-snap1
# 删除快照
[root@node1 ~]#rbd snap remove demo-img --snap demo-snap1
# 删除镜像-删除镜像前,需要先在客户端取消挂载
[root@client ~]# umount /mnt
[root@client ~]# rbd unmap /dev/rbd0
[root@node1 ~]# rbd rm demo-img
# 回滚快照
umount取消挂载,然后停止映射,再进行快照还原
[root@node1 ~]#rbd snap rollback demo-img --snap demo-snap1
重新映射,然后挂载
# 保护快照,防止快照被误删除
[root@node1 ~]# rbd snap protect demo-img --snap demo-snap1
# 取消快照保护
[root@node1 ~]# rbd snap unprotect demo-img --snap demo-snap1
# 查看映射
[root@client1 ~]# rbd showmapped
id pool image snap device
0 rbd demo-img - /dev/rbd0
二、Ceph共享文件系统:
文件系统相当于是组织数据存储的方式,格式化时,就是在为存储创建文件系统。
ceph的文件系统需要配置MDS组件。
#在node3节点上部署MDS
[root@node3 ~]# yum install -y ceph-mds
#创建ceph文件系统
[root@node1 ~]# cd ceph-cluster/
[root@node1 ceph-cluster]# ceph-deploy mds create node3 #在管理集群的节点上管理
#MDS上数据和元数据是分开的,默认只有1个存储池rbd 0存储数据,需要存储池放置元数据,存储池里面分组归置PG。
[root@node1 ceph-cluster]# ceph osd pool create data 64 # 创建名为data的存储池,PG数量为64,用来存储数据
[root@node1 ceph-cluster]# ceph osd pool create metadata 64 # 创建名为metadata的存储池,PG数量为64,用来存储元数据
[root@node1 ceph-cluster]# ceph fs new myfs1 metadata data # 创建cephfs,将元数据写到metadata存储池中,数据写到data存储池中。
# 查看文件系统
[root@node1 ceph-cluster]# ceph fs ls
name: myfs1, metadata pool: metadata, data pools: data
# 客户端挂载文件系统(共享需要用户名、密码)
[root@client1 ~]# cat /etc/ceph/ceph.client.admin.keyring
[client.admin]
key = AQCHFVRhs16AMxAAFqIyPiGH1/bSUjVVXV5UwA==
[root@client1 ~]# mount -t ceph -o name=admin,secret=AQCHFVRhs16AMxAAFqIyPiGH1/bSUjVVXV5UwA== 192.168.4.13:6789:/ /mnt
#t 是文件类型;o是选项,提供用户名和密码;cephfs端口号默认是6789
[root@client1 ~]# df -h /mnt
文件系统 容量 已用 可用 已用% 挂载点
192.168.4.13:6789:/ 90G 252M 90G 1% /mnt
三、ceph对象存储
# 装包
[root@node3 ~]# yum install -y ceph-radosgw
[root@node1 ~]# cd ceph-cluster/
[root@node1 ceph-cluster]# ceph-deploy rgw create node3
[root@node3 ~]# systemctl status ceph-radosgw@\*
使用:http://docs.ceph.org.cn/radosgw/s3/python/ http://docs.ceph.org.cn/radosgw/s3/