Ceph集群部署
一、Ceph存储
Ceph存储是一个分布式的网络存储方案。数据在集群中的多个节点中进行存储和管理,对于数据的备份以及存储容量的扩充进行更加方便的处理。
传统的存储接口分为块存储、文件存储和对象存储,而Ceph的存储接口是单一的,对这些接口的访问方式都是通过网络。这使Ceph存储系统的灵活性高,可以在各种环境中进行配置。
二、虚拟机环境
注:建议不要使用单个虚拟机来进行Ceph集群搭建,建议使用2个及以上的虚拟机
!!!如果使用单一虚拟机进行Ceph集群搭建,不能实现对存储数据的备份以及其性能也会有所限制
IP地址 | Hostname | Disk |
---|---|---|
172.129.22.10 | node1 | sda,sdb |
172.129.22.20 | node2 | sda,sdb |
172.129.22.30 | node3 | sda,sdb |
三、虚拟机环境配置
# 这里我使用的源会在之后给出
# 分别为epel.repo、CentOS-Base.repo、ceph.repo、epel-testing.repo
https://www.123pan.com/s/i6FGjv-MqMl.html
提取码:Vnu2
# 配置无密钥连接
node1节点
cat >> /etc/hosts <<EOF
172.129.22.10 node1
172.129.22.20 node2
172.129.22.30 node3
EOF
ssh-keygen
ssh-copy-id node2
ssh-copy-id node3
# 传输hosts配置文件
scp /etc/hosts node2:/etc/hosts
scp /etc/hosts node3:/etc/hosts
# 防火墙和selinux
所有节点
systemctl disable firewalld --now
setenforce 0
# 软件下载
node1节点
yum -y install ceph-deploy ceph python-pip
node2节点
yum -y install ceph
node3节点
yum -y install ceph
四、集群配置
前提环境:这里向各位推荐一个命令帮助我们进行Ceph集群的搭建
node1节点
ceph-deploy install node1 node2 node3
# 对三台虚拟机进行基础的集群配置(软件下载等)
# --no-adjust-repos是指不使用多余的源进行下载软件
# 集群初始化
node1节点
mkdir ceph-cluster # 建议创建一个文件夹,来存储配置文件和密钥等
cd ceph-cluster
ceph-deploy new node1 node2 node3
# 集群监控器节点配置
node1节点
ceph-deploy mon create-initial # 根据配置文件进行配置监控器节点
# 这里可以选择create也可以选择create-initial
# create可以单独设置额外的某节点作为监控器
# create-initial是设置配置文件中的节点作为监控器
# 设置admin节点
node1节点
ceph-deploy admin node1 node2 node3 # 这条命令之后我们可以查看集群状态
ceph status
# osd节点设置(存储)
ceph-deploy disk list node1 node2 node3 # 查看三个节点磁盘
ceph-deploy disk zap node1 /dev/sdb # 擦除磁盘上的所有数据以及分区
ceph-deploy disk zap node2 /dev/sdb
ceph-deploy disk zap node3 /dev/sdb
ceph-deploy osd create node1 --data /dev/sdb # 创建存储空间
ceph-deploy osd create node2 --data /dev/sdb
ceph-deploy osd create node3 --data /dev/sdb
# mgr节点设置
ceph-deploy mgr create node1 # 设置manager节点
# 集群状态检验
ceph status
# cluster:
# id: 298ceeda-aed1-4de4-b2d9-bd7b655bfe75
# health: HEALTH_OK
# services:
# mon: 3 daemons, quorum node1,node2,node3
# mgr: node1(active)
# osd: 3 osds: 3 up, 3 in
# data:
# pools: 0 pools, 0 pgs
# objects: 0 objects, 0 B
# usage: 3.0 GiB used, 57 GiB / 60 GiB avail
# pgs:
总结
本人第一次接触Ceph集群,如有什么错误还请各位指出,在下会一一改正,祝我们在运维这条路上越走越远!!!