CephFS的创建&&挂载&&卸载

引言:Ceph 文件系统( Ceph FS )是个 POSIX 兼容的文件系统,它使用 Ceph 存储集群来存储数据。 Ceph 文件系统与 Ceph 块设备、同时提供 S3 和 Swift API 的 Ceph 对象存储、或者原生库( librados )一样,都使用着相同的 Ceph 存储集群系统。
在这里插入图片描述
前提条件:需要搭建好ceph集群:具体步骤见Ceph集群搭建

准备工作

  1. 在管理节点(admin-node)上,用ceph-deploy把Ceph安装到Ceph客户端节点(ceph-client)上(注:客户端也可以安装在管理节点上,因为此处我把已经安装好Ceph的管理节点当做客户端使用,故无需执行以下命令)

    ceph-deploy install {ceph-client-node}
    
  2. 查看Ceph集群运行健康状态,是HEALTH_OK且PG进入active+clean状态即可,并确保集群中至少有一个元数据服务器(mds)

    [root@ceph1 ceph]# ceph -s
      cluster:
        id:     13430f9a-ce0d-4d17-a215-272890f47f28
        health: HEALTH_OK
    
      services:
        mon: 3 daemons, quorum ceph2,ceph1,ceph3
        mgr: ceph1(active), standbys: ceph3, ceph2
        osd: 3 osds: 3 up, 3 in
        rgw: 1 daemon active
    
      data:
        pools:   4 pools, 32 pgs
        objects: 219  objects, 1.1 KiB
        usage:   3.0 GiB used, 245 GiB / 248 GiB avail
        pgs:     32 active+clean 
    

1.创建文件系统

①使用两个Pool来分别存储数据和元数据

[root@ceph1 ceph]# ceph osd pool create cephfs_data 128
pool 'cephfs_data' created
[root@ceph1 ceph]# ceph osd pool create cephfs_metadata 64
pool 'cephfs_metadata' created

查看集群状态发现pool+2=6pgs+192=224

  data:
    pools:   6 pools, 224 pgs
    objects: 219  objects, 1.1 KiB
    usage:   3.0 GiB used, 245 GiB / 248 GiB avail
    pgs:     224 active+clean

②创建一个CephFS

[root@ceph1 ceph]# ceph fs new cephfs cephfs_metadata cephfs_data
new fs with metadata pool 7 and data pool 6

查看集群状态发现cephfs创建成功,当前元数据服务器状态是up:active表示正常。

[root@ceph1 ceph]# ceph -s
  cluster:
    id:     13430f9a-ce0d-4d17-a215-272890f47f28
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum ceph2,ceph1,ceph3
    mgr: ceph1(active), standbys: ceph3, ceph2
    mds: cephfs-1/1/1 up  {0=ceph1=up:active}
    osd: 3 osds: 3 up, 3 in
    rgw: 1 daemon active
 
  data:
    pools:   6 pools, 224 pgs
    objects: 241  objects, 3.4 KiB
    usage:   3.0 GiB used, 245 GiB / 248 GiB avail
    pgs:     224 active+clean

使用下面的命令可以查看创建的CephFS:

[root@ceph1 ceph]# ceph fs ls
name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs_data ]

2.挂载CephFS

客户端访问Ceph FS有两种方式:

  1. 内核驱动
    ①查看ceph.client.admin.keyring密钥环并复制key

     [root@ceph1 ceph]# cat ceph.client.admin.keyring 
     [client.admin]
             key = AQBAI/JbROMoMRAAbgRshBRLLq953AVowLgJPw==
             caps mds = "allow *"
             caps mgr = "allow *"
             caps mon = "allow *"
             caps osd = "allow *"
    

    ②把CephFS挂载为内核驱动(secret参数的值就是刚才复制的key值)

     [root@ceph1 ceph]# mkdir /mnt/mycephfs
     [root@ceph1 ceph]# mount -t ceph 10.0.86.246:6789,10.0.86.221:6789,10.0.86.253:6789:/ /mnt/mycephfs/ -o name=admin,secret=AQBAI/JbROMoMRAAbgRshBRLLq953AVowLgJPw==
    

    ③查看当前文件系统情况发现挂载成功

     [root@ceph1 ceph]# df -h
     Filesystem                                            Size  Used Avail Use% Mounted on
     /dev/vda2                                              48G  6.7G   42G  14% /
     devtmpfs                                              1.9G     0  1.9G   0% /dev
     tmpfs                                                 2.0G  8.0K  2.0G   1% /dev/shm
     tmpfs                                                 2.0G   17M  2.0G   1% /run
     tmpfs                                                 2.0G     0  2.0G   0% /sys/fs/cgroup
     tmpfs                                                 2.0G   48K  2.0G   1% /var/lib/ceph/osd/ceph-0
     tmpfs                                                 396M     0  396M   0% /run/user/0
     10.0.86.246:6789,10.0.86.221:6789,10.0.86.253:6789:/   78G     0   78G   0% /mnt/mycephfs
    
  2. 用户空间文件系统(略)

3.卸载CephFS

[root@ceph1 ceph]# umount /mnt/mycephfs

查看当前文件系统情况发现卸载成功

[root@ceph1 ceph]# df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/vda2        48G  6.7G   42G  14% /
devtmpfs        1.9G     0  1.9G   0% /dev
tmpfs           2.0G  8.0K  2.0G   1% /dev/shm
tmpfs           2.0G   17M  2.0G   1% /run
tmpfs           2.0G     0  2.0G   0% /sys/fs/cgroup
tmpfs           2.0G   48K  2.0G   1% /var/lib/ceph/osd/ceph-0
tmpfs           396M     0  396M   0% /run/user/0
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
创建 CephFS 并使用它,需要遵循以下步骤: 1. 确保在 Ceph 集群中已启用 CephFS 功能。在 ceph.conf 文件中,确保以下配置项已设置为“true”: ``` [global] fsid = <your fsid> mon_initial_members = <your mon node names> mon_host = <your mon node IP addresses> auth_cluster_required = cephx auth_service_required = cephx auth_client_required = cephx [client] keyring = /etc/ceph/<your ceph client keyring> ``` 2. 在 Ceph 集群中创建一个 MDS(元数据服务器)节点。这个节点将处理文件系统的元数据。可以使用以下命令创建 MDS 节点: ``` ceph-deploy mds create <mds node names> ``` 3. 创建 CephFS 文件系统。可以使用以下命令创建文件系统: ``` ceph fs new <fs name> <metadata pool name> <data pool name> ``` 其中,“fs name”是文件系统的名称,“metadata pool name”是用于存储文件系统元数据的池的名称,“data pool name”是用于存储文件数据的池的名称。 4. 挂载 CephFS 文件系统。可以使用以下命令将文件系统挂载到本地目录: ``` mount -t ceph <mon node>:<path> <mount point> -o name=<client name>,secret=<client key> ``` 其中,“mon node”是监视器节点的名称或 IP 地址,“path”是文件系统的路径,“mount point”是本地目录的路径,“client name”是用于访问文件系统的客户端名称,“client key”是用于访问文件系统的客户端密钥。 完成以上步骤后,就可以使用 CephFS 文件系统了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

SL_World

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值