创建ceph集群不使用mkcephfs和ceph-deploy

本文介绍了如何不使用mkcephfs和ceph-deploy工具手动创建一个ceph集群。首先,通过uuidgen生成UUID,然后初始化集群和监控节点,接着添加 OSD 节点并创建文件系统,再构建crush树,并提供了详细的ceph.conf配置文件内容。整个过程详细阐述了每个步骤,适合想要深入了解ceph部署的读者。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. uuidgen
2.init cluster and mon daemon
mkdir -p /data/mon/mon.0
ceph-authtool --create-keyring /tmp/ceph.mon.keyring --gen-key -n mon. --cap mon 'allow *'
ceph-authtool --create-keyring /etc/ceph/ceph.client.admin.keyring --gen-key -n client.admin --set-uid=0 --cap mon 'allow *' --cap osd 'allow *' --cap mds 'allow *'
ceph-authtool /tmp/ceph.mon.keyring --import-keyring /etc/ceph/ceph.client.admin.keyring
monmaptool --create --add 0 127.0.0.1 --fsid a7f64266-0894-4f1e-a635-d0aeaca0e993 /tmp/monmap
ceph-mon -i 0 -c /etc/ceph/ceph.conf --mkfs  --monmap /tmp/monmap --keyring /tmp/ceph.mon.keyring  --mon-data /data/mon/mon.0 --debug_mon 10 --fsid=a7f64266-0894-4f1e-a635-d0aeaca0e993


ceph-mon -i 0


3.add two osd daemon
ceph osd create
mkdir -p /data/osd/osd.0 
mkfs.xfs -f /dev/vdb
mount -t xfs /dev/vdb /data/osd/osd.0 
ceph-osd -i 0 --mkfs --osd-data=/data/osd/osd.0 -c /etc/ceph/ceph.conf --debug_osd 20 --mkkey
ceph auth add osd.0 osd 'allow *' mon 'allow rwx' -i /data/osd/osd.0/keyring 
ceph-osd -i 0


ceph osd create
mkdir -p /data/osd/osd.1 
mkfs.xfs -f /dev/vdc
mount -t xfs /dev/vdc /data/osd/osd.1
ceph-osd -i 1 --mkfs --osd-data=/data/osd/osd.1 -c /etc/ceph/ceph.conf --debug_osd 20 --mkkey
ceph auth add osd.1 osd 'allow *' mon 'allow rwx' -i /data/osd/osd.1/keyring 
ceph-osd -i 1


4.build crush tree
ceph osd crush add-bucket unkownrack rack 
ceph osd tree 
ceph osd crush  add-bucket host0 host 
ceph osd crush  add-bucket host1 host 
ceph osd crush move host0 rack=unkownrack 
ceph osd crush move host1 rack=unkownrack 
ceph osd crush move unkownrack  root=default 
ceph osd crush create-or-move osd.0 1.0 host=host0 rack=unkownrack root=default
ceph osd crush create-or-move osd.1 1.0 host=host1 rack=unkownrack root=default


5. ps : ceph.conf 
[global]
    max open files = 131072
    log file = /var/log/ceph/ceph-$name.log
    pid file = /var/run/ceph/$name.pid     
    auth cluster required = cephx
    service required = cephx
    auth client required = cephx
    osd pool default size = 1    


[mon]
    debug mon = 0
    debug paxos = 0 
    mon data = /data/mon/mon.$id


[mon.0]  
    host = 127.0.0.1 
    mon addr = 127.0.0.1:6789 


[osd] 
    osd data = /data/osd/osd.$id
    osd journal = /data/osd/osd.$id/journal
    osd journal size = 1000
    osd mkfs type = xfs
    osd mkfs options xfs = -f                  
    osd mount options xfs = rw,noatime 
    debug osd = 0


[osd.0] 
    host = 127.0.0.1
    devs = /dev/vdb


[osd.1] 
    host = 127.0.0.1
    devs = /dev/vdc


[client]
    debug client = 10 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值