目录
4)查看mds状态,一个up,其余两个待命,目前的工作的是node01上的mds服务
1)客户端要在 public 网络内(我的public网络是192.168.20.0/24网段)在客户端安装 ceph 软件包
3)在 ceph 的管理节点给客户端拷贝 ceph 的配置文件 ceph.conf 和账号的秘钥环文件 密钥文件
1)在 ceph 的管理节点给客户端拷贝 ceph 的配置文件 ceph.conf 和管理员账号的秘钥环文件
接着之前的部署集群架构
创建 CephFS 文件系统 MDS 接口
服务端主要操作
1)在管理节点创建 mds 服务
cd /etc/ceph
[root@admin ceph]# ceph-deploy mds create node0{1..3}
2)查看各个节点的 mds 服务
[root@admin /etc/ceph]#ssh root@node01 systemctl status ceph-mds@node01
[root@admin /etc/ceph]#ssh root@node02 systemctl status ceph-mds@node02
[root@admin /etc/ceph]#ssh root@node03 systemctl status ceph-mds@node03
3)创建存储池,启用 ceph 文件系统
ceph 文件系统至少需要两个 rados 池,一个用于存储数据,一个用于存储元数据。此时数据池就类似于文件系统的共享目录。
ceph osd pool create <CEPHFS_DATA_NAME> <PG数量> #创建数据Pool
ceph osd pool create <CEPHFS_METADATA_NAME> <PG数量>
#创建 cephfs,命令格式:ceph fs new <FS_NAME> <CEPHFS_METADATA_NAME> <CEPHFS_DATA_NAME>
ceph fs new mycephfs cephfs_metadata cephfs_data
#启用ceph,元数据Pool在前,数据Pool在后
ceph fs ls
#查看cephfs
[root@admin ceph]# ceph osd pool create cephfs_data 128
pool 'cephfs_data' created
[root@admin ceph]# ceph osd pool create cephfs_metadata 128
pool 'cephfs_metadata' created
[root@admin ceph]# ceph fs new mycephfs cephfs_metadata cephfs_data
new fs with metadata pool 3 and data pool 2
[root@admin ceph]# ceph fs ls
name: mycephfs, metadata pool: cephfs_metadata, data pools: [cephfs_data ]
4)查看mds状态,一个up,其余两个待命,目前的工作的是node01上的mds服务
ceph -s
mds: mycephfs:1 {0=node01=up:active} 2 up:standby
ceph mds stat
mycephfs:1 {0=node01=up:active} 2 up:standby