1.主节点上传ceph-deploy-2.0包并手动安装
2.在/opt/下创建目录ceph-cluster
3.在ceph-cluster目录下分别执行
新建集群
ceph-deploy new ceph37 ceph38 ceph39
安装集群ceph
ceph-deploy install ceph37 ceph38 ceph39
(注意:若使用离线的源安装出错,则给服务器提供USB共享网络,在线单节点install ceph37;
所有节点安装完后,修改配置文件为集群)
在节点开启mon监控服务
ceph-deploy mon create ceph37 ceph38 ceph39
收集所有节点的key
ceph-deploy gatherkeys ceph37 ceph38 ceph39
列举磁盘
ceph-deploy disk list ceph37
擦净磁盘(所有节点所有磁盘依次执行)
ceph-deploy disk zap ceph37 /dev/sdb
备注:重新安装操作系统后,重新安装ceph,导致之前的磁盘文件格式已改,
这种情况下该项目中的SATA盘需要进入BISO里对RAID卡进行初始化,NVME盘需要执行两次擦净操作,再分别添加
添加osd(所有节点所有磁盘依次执行)
ceph-deploy osd create --data /dev/nvme3n1 ceph39
把ceph.client.admin.keyring拷贝到/etc/ceph/目录,才能使用ceph osd tree命令
使用ceph osd tree查看
查看集群状态:
自从ceph 12开始,manager是必须的。应该为每个运行monitor的机器添加一个mgr,否则集群处于WARN状态
解决:添加mgr
1)添加一个user为ceph,type为mgr,id为ceph37
ceph --cluster ceph auth get-or-create mgr.ceph37 mon ‘allow profile mgr’ osd ‘allow *’ mds ‘allow *’
ceph --cluster ceph auth get-or-create mgr.ceph38 mon ‘allow pro