ceph分布式创建与使用(下)

ceph分布式创建与使用(下)

在基础环境部署完成后进行

部署 ceph 集群

1.在node-1 结点上安装部署工具 ceph-deploy

yum install -y ceph-deploy
mkdir ceph-cluster
cd ceph-cluster/

给其他三台同步安装

 for i in  200 106 164; do ssh 192.168.4.$i "yum install -y ceph-mon ceph-osd ceph-mds ceph-radosgw"; don
 rpm -qa | grep ceph    #查看包数量

2.初始化 mon 配置,文件为 ceph.conf(必须在 ceph-cluster 当前目录下操作)

#ceph-deploy new node-1 node-2 node-3
cat ceph.conf
 ls /etc/ceph/

3.远程所有 node 主机,拷贝配置文件,并启动 ceph-mon 服务,配置文件被拷贝到/etc/ceph/ceph.conf

 ceph-deploy mon create-initial

查看集群状态

ceph -s

此时应该显示health_err状态,因为没有启动osd没有共享

4.创建osd磁盘
准备磁盘分区,分区用于做缓存

for i in node-1 node-2 node-3;do ssh $i ;"parted /dev/vdb mklabel gpt";ssh $i "parted /dev/vdb mkpart primary 1 100%";done

修改磁盘的属性

 for i in node-1 node-2 node-3
> do
> ssh $i "chown ceph.ceph /dev/vdb1"
> done
cd ceph-cluster/ #必须在这个目录下操作
 
for i in node-1 node-2 node-3
> do
> ceph-deploy disk zap $i:vdc #初始化清空磁盘数据
> done

创建空间

 for i in node-1 node-2 node-3
> do
> ceph-deploy osd create $i:vdc:/dev/vdb1 #创建 osd 存储设备,vdc 提供
存储空间,vdb1 为缓存
> done

查看状态

 ceph -s 

以显示3 个 osd和总容量

ceph osd tree #查看集群状态 osd 树
systemctl status ceph-osd@0 #查看 ceph-osd启动以数字结尾,从 0 开始

到这ceph就部署完成了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值