ceph分布式创建与使用(下)
在基础环境部署完成后进行
部署 ceph 集群
1.在node-1 结点上安装部署工具 ceph-deploy
yum install -y ceph-deploy
mkdir ceph-cluster
cd ceph-cluster/
给其他三台同步安装
for i in 200 106 164; do ssh 192.168.4.$i "yum install -y ceph-mon ceph-osd ceph-mds ceph-radosgw"; don
rpm -qa | grep ceph #查看包数量
2.初始化 mon 配置,文件为 ceph.conf(必须在 ceph-cluster 当前目录下操作)
#ceph-deploy new node-1 node-2 node-3
cat ceph.conf
ls /etc/ceph/
3.远程所有 node 主机,拷贝配置文件,并启动 ceph-mon 服务,配置文件被拷贝到/etc/ceph/ceph.conf
ceph-deploy mon create-initial
查看集群状态
ceph -s
此时应该显示health_err状态,因为没有启动osd没有共享
4.创建osd磁盘
准备磁盘分区,分区用于做缓存
for i in node-1 node-2 node-3;do ssh $i ;"parted /dev/vdb mklabel gpt";ssh $i "parted /dev/vdb mkpart primary 1 100%";done
修改磁盘的属性
for i in node-1 node-2 node-3
> do
> ssh $i "chown ceph.ceph /dev/vdb1"
> done
cd ceph-cluster/ #必须在这个目录下操作
for i in node-1 node-2 node-3
> do
> ceph-deploy disk zap $i:vdc #初始化清空磁盘数据
> done
创建空间
for i in node-1 node-2 node-3
> do
> ceph-deploy osd create $i:vdc:/dev/vdb1 #创建 osd 存储设备,vdc 提供
存储空间,vdb1 为缓存
> done
查看状态
ceph -s
以显示3 个 osd和总容量
ceph osd tree #查看集群状态 osd 树
systemctl status ceph-osd@0 #查看 ceph-osd启动以数字结尾,从 0 开始
到这ceph就部署完成了