ceph 10版本:ceph 10.2.11 增加osd
文章目录
前言
记录下用户集群的osd增加过程。
一、待安装节点操作步骤
1.配置ntp
因为新增的节点都是之前的计算节点中的机器,ntp是集群搭建时统一配置的,这里就不再赘述了。
2.安装ceph
代码如下:
mount -n /root/ceph.iso /media/cdrom
yum clean all
yum makecache
yum install ceph
内网环境下,安装ceph使用的是我们自己打的iso盘,所以直接挂载安装即可。
3.划分SSD盘上的journal分区
(如果使用SSD作为日志盘,则划分;如果不使用则直接前往下一步4.划分数据盘)
SSD的盘符是/dev/sdb。
使用parted工具划分,首先使用mklable gpt格式化硬盘为gpt分区,然后将磁盘划分为对应大小的分区。
划分完毕后将分区的属主分配给ceph用户
chown ceph:ceph /dev/sdb1
chown ceph:ceph /dev/sdb2
chown ceph:ceph /dev/sdb3
chown ceph:ceph /dev/sdb4
然后将属主信息写入rc.local文件内,写到这里的目的是防止机器重启之后,磁盘读写权限问题导致osd启动异常的发生
vim /etc/rc.d/rc.local
chown ceph:ceph /dev/sdb1
chown ceph:ceph /dev/sdb2
chown ceph:ceph /dev/sdb3
chown ceph:ceph /dev/sdb4
4.划分数据盘
将数据盘的属主分配给ceph用户
chown ceph:ceph /dev/sdc
chown ceph:ceph /dev/sdd
chown ceph:ceph /dev/sde
chown ceph:ceph /dev/sdf
然后将属主信息写入rc.local文件内,这里也是防止重启后权限异常问题
vim /etc/rc.d/rc.local
chown ceph:ceph /dev/sdc
chown ceph:ceph /dev/sdd
chown ceph:ceph /dev/sde
chown ceph:ceph /dev/sdf
二、monitor节点操作步骤
1.获取key文件
执行获取到部署需要的key文件,这一步至关重要。
没有生成key文件的情况下执行增加osd的命令会提示找不到key文件
cd /etc/ceph/
ceph-deploy gatherkeys {mon-hostname}
2.推送配置到目标节点
主要是为了把ceph.conf、admin.keyring等配置文件推送到待安装节点
cd /etc/ceph/
ceph-deploy admin {node-hostname}
3.获取待安装节点磁盘列表
执行获取到待安装节点的磁盘列表
cd /etc/ceph/
ceph-deploy disk list {node-hostname}
4.prepare osd
prepare osd
情况1:数据盘和日志盘使用不同硬盘
cd /etc/ceph/
ceph-deploy osd prepare {node-hostname}:/dev/{数据盘}:/dev/{⽇志盘}
情况2:数据盘和日志盘用同一块硬盘
cd /etc/ceph/
ceph-deploy osd prepare {node-hostname}:/dev/{数据盘}
5.activate osd
情况1:使用不同磁盘
这里需要注意的是,prepare阶段时,数据盘被初始化,这里使用的是盘符1
cd /etc/ceph/
ceph-deploy osd activate {node-hostname}:/dev/{数据盘1}:/dev/{⽇志盘}
情况2:使用同一块磁盘
cd /etc/ceph/
ceph-deploy osd activate {node-hostname}:/dev/{数据盘1}
总结
加osd过程比较简单,准备过程都准备好执行就不容易出问题。