#创建存储池并应用相应规则
ceph osd pool create ssdpool 64 64 rule-ssd
ceph osd pool create hddpool 64 64 rule-hdd
#修改pool绑定的rule
ceph osd pool set cephfs_data crush_rule rule-ssd
ceph osd pool set cephfs_metadata crush_rule rule-ssd
#### 2、创建文件系统fs
###使用前面创建的meta和data两个pool创建文件系统,meta主要存储文件系统meta信息,data为数据主要存储地,后期需要恢复时各负其责。
##meta在前,data在后
ceph fs new cephfs cephfs_metadata cephfs_data
查看创建的fs
ceph fs ls
############################顺带话题############################
###删除fs,需要输入两遍fs名称,并带–yes-i-really-really-mean-it,部分版本只有一个really,请参考错误提示,或使用help查看。
ceph fs rm cfs4ech cfs4ech --yes-i-really-really-mean-it
##删除pool,与删除fs基本一致
ceph osd pool rm gtscfs_metadata gtscfs_metadata --yes-i-really-really-mean-it
#### 3、部署mds,每个文件系统需要一个mds
###进入计划启用mds的节点
mkdir /var/lib/ceph/mds/ceph-ceph1
chown ceph:ceph /var/lib/ceph/mds/ceph-ceph1
#ceph auth get-or-create mds. i d m o n ′ p r o f i l e m d s ′ m g r ′ p r o f i l e m d s ′ m d s ′ a l l o w ∗ ′ o s d ′ a