ceph集群部署及块osd使用



返回

存储概念

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6mQa55JI-1596202460579)(EA23CACE91554427B06B0910747CB845)]

  • 集中分布:所有数据存储在同一设备内

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XxuI4Mtk-1596202460582)(04F674AC6C02420CA911B0F4960B48C4)]

  • 分布分布存储
    • Lustre
    • Hadoop :仍用较多, 大数据使用较多
    • FastDFS
    • Ceph :企业标准, 超融合,分布式存储
    • GlusterFS
  • Ceph 独一无二地用统一的系统提供了对象、块、和文件存储功能,它可靠性高、管理简便、并且是自由软件
  • Ceph 的强大足以改变贵公司的 IT 基础架构、和管理海量数据的能力。
  • Ceph 可提供极大的伸缩性——供成千用户访问 PB 乃至 EB 级的数据。
  • Ceph 节点以普通硬件和智能守护进程作为支撑点, Ceph 存储集群组织起了大量节点,它们之间靠相互通讯来复制数据、并动态地重分布数据

在这里插入图片描述

高扩展, 高可用, 高性能

  • Ceph 消除了集中网关,允许客户端直接和 Ceph OSD 守护进程通讯。
  • Ceph OSD 守护进程自动在其它 Ceph 节点上创建对象副本来确保数据安全和高可用性;
  • 为保证高可用性,监视器也实现了集群化。
  • 为消除中心节点, Ceph 使用了 CRUSH 算法。

CRUSH算法
Ceph 客户端和 OSD 守护进程都用 CRUSH 算法来计算对象的位置信息,而不是依赖于一个中心化的查询表。与以往方法相比, CRUSH 的数据管理机制更好,它很干脆地把工作分配给集群内的所有客户端和 OSD 来处理,因此具有极大的伸缩性。 CRUSH 用智能数据复制确保弹性,更能适应超大规模存储。CRUSH - 可控、可伸缩、分布式地归置多副本数据 。

  • 对象存储, 块存储, 文件系统存储
  • SDS 软件定义存储
  • 遵循过半原则, 一半坏了就不能使用了 ,如由2个osd, 一个就不能用, 3台和4台结果一样

选奇数台才能实现高可用,最少3台 osd 做存储

  • 官网体系结构 http://docs.ceph.org.cn/architecture/

  • OSDs 存储设备

  • Monitors 集群监控组件

  • RadosGateway (RGW) 对象存储网关

  • MDSs 存放文件系统的元数据 (对象存储和块存储不需要该组件)

  • Client ceph客户端


 ceph-osd 软件包
    osd == 硬盘 
ceph-mon 软件包
    监控 (健康检查 , 检查服务是否正常)
    绘制地图(地图文件记录服务地址, 实时检查osd存储状态, 并更新osd存储地图)

1 案例1:部署ceph准备

1.1 问题
准备四台虚拟机,其三台作为存储集群节点,一台安装为客户端,实现如下功能:

  1. 创建1台客户端虚拟机
  2. 创建3台存储集群虚拟机
  3. 配置主机名、IP地址、YUM源
  4. 修改所有主机的主机名
  5. 配置无密码SSH连接
  6. 配置NTP时间同步
  7. 创建虚拟机磁盘

1.2 方案
使用4台虚拟机,1台客户端、3台存储集群服务器,拓扑结构如图-1所示。
在这里插入图片描述

注意:所有主机基本系统光盘的YUM源必须提前配置好。

Ceph组件-mon维护者集群map
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-F2auU8F8-1596202460603)(D06888333BE94CC599CB061A4469D5DE)]

Ceph会对数据进行切割处理
在这里插入图片描述

Ceph随机读写数据的思路
在这里插入图片描述

  • 当数据源不变时, 哈希值永恒不变
[root@proxy ~]# echo test.txt | md5sum
bbfa1f311a5828452b953d1335cbf027  -
[root@proxy ~]# 

bbfa1f311a5828452b953d1335cbf027%OSD数量  若osd数量为5  ,取余为0-4 ,当对5取余为0,写入到第一台osd设备, 当取余等于1,写入第二台机器,,

随机写进去, 每个数据拷贝进去, 两外复制两份到其他osd,共有3个副本

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZjpVixsH-1596202460609)(65B20A60836448B885AA9181E3FF04B2)]
上图官网数据访问图

Ceph集群结构
图-5

1.3 步骤
实现此案例需要按照如下步骤进行。

步骤一:安装前准备

1)所有主机设置防火墙和SELinux
[root@client ~]# firewall-cmd --set-default-zone=trusted
[root@client ~]# sed -i '/SELINUX/s/enforcing/permissive/' /etc/selinux/config
[root@client ~]# setenforce 0
[root@node1 ~]# firewall-cmd --set-default-zone=trusted
[root@node1 ~]# sed -i '/SELINUX/s/enforcing/permissive/' /etc/selinux/config
[root@node1 ~]# setenforce 0
[root@node2 ~]# firewall-cmd --set-default-zone=trusted
[root@node2 ~]# sed -i '/SELINUX/s/enforcing/permissive/' /etc/selinux/config
[root@node2 ~]# setenforce 0
[root@node3 ~]# firewall-cmd --set-default-zone=trusted
[root@node3 ~]# sed -i '/SELINUX/s/enforcing/permissive/' /etc/selinux/config
[root@node3 ~]# setenforce 0
2)为所有节点配置yum源服务器。

把四台虚拟机全部关机;每台虚拟机都添加一个光驱;

做如下相同操作:

  • 右击虚拟机,选【设置】—【添加】—【CD|DVD驱动器】–【完成】;

    点击刚刚新建的光盘[CD|DVD],勾选使用ISO映像文件–[浏览];

    找到自己真机的ceph10.iso加载即可。

    添加磁盘:

    除了客户端,所有3台ceph服务器都添加2块20G磁盘。

    启动所有虚拟机后,查看磁盘情况:

[root@client ~]# lsblk
[root@node1 ~]# lsblk
[root@node2 ~]# lsblk
[root@node3 ~]# lsblk
3)所有主机挂载ceph光盘和系统光盘

【需要看清对应光驱序号 sr0 还是sr1】,需要根据实际情况操作,

案例假设是将系统光盘挂载到/media目录,将ceph光盘挂载到/ceph目录。

[root@client ~]# umount /dev/sr0
[root@client ~]# umount /dev/sr1             #未挂载的话会报错
[root@client ~]# mkdir  /ceph
[root@client ~]# vim  /etc/fstab
    /dev/sr0    /ceph     iso9660   defaults   0  0       #需要根据实际情况挂载
    /dev/sr1    /media    iso9660   defaults   0  0       #需要根据实际情况挂载
[root@client ~]# mount -a
[root@client ~]# lsblk
[root@node1 ~]# umount /dev/sr0
[root@node1 ~]# umount /dev/sr1
[root@node1 ~]# mkdir /ceph
[root@node1 ~]# vim /etc/fstab
    /dev/sr0    /ceph     iso9660   defaults   0  0      #需要根据实际情况挂载
    /dev/sr1    /media    iso9660   defaults   0  0      #需要根据实际情况挂载
[root@node1 ~]# mount -a
[root@node2 ~]# umount /dev/sr0
[root@node2 ~]# umount /dev/sr1
[root@node2 ~]# mkdir /ceph
[root@node2 ~]# vim /etc/fstab 
    /dev/sr0    /ceph     iso9660   defaults   0  0       #需要根据实际情况挂载
    /dev/sr1    /media    iso9660   defaults   0  0       #需要根据实际情况挂载
[root@node2 ~]# mount -a
[root@node3 ~]# umount /dev/sr0
[root@node3 ~]# umount /dev/sr1
[root@node3 ~]# mkdir /ceph
[root@node3 ~]# vim /etc/fstab
    /dev/sr0    /ceph     iso9660   defaults   0  0        #需要根据实际情况挂载
    /dev/sr1    /media    iso9660   defaults   0  0        #需要根据实际情况挂载
[root@node3 ~]# mount -a
4)配置无密码连接(包括自己远程自己也不需要密码),在node1操作
[root@node1 ~]# ssh-keygen   -f /root/.ssh/id_rsa    -N ''
#-f后面跟密钥的文件名称(希望创建密钥到哪个文件)
#-N ''代表不给密钥配置密钥(不能给密钥配置密码)
[root@node1 ~]# for i in 10  11  12  13
 do
     ssh-copy-id  192.168.4.$i
 done
#通过ssh-copy-id将密钥传递给192.168.4.10、192.168.4.11、192.168.4.12、192.168.4.13
5)修改/etc/hosts并同步到所有主机

注意:/etc/hosts解析的域名要与本机主机名一致!!!!

[root@node1 ~]# vim /etc/hosts     #修改文件,手动添加如下内容(不要删除文件原有内容)
... ...
192.168.4.10  client
192.168.4.11     node1
192.168.4.12     node2
192.168.4.13     node3

提示:/etc/hosts解析的域名必须与本机主机名一致!!!

  • 将/etc/hosts文件拷贝给所有其他主机(client、node1、node2、node3)
[root@node1 ~]# for i in client node1  node2  node3
do
	scp  /etc/hosts   $i:/etc/
done
6)修改所有节点都需要配置YUM源,并同步到所有主机。
[root@node1 ~]# vim /etc/yum.repos.d/ceph.repo    #新建YUM源配置文件,内容如下
[mon]
name=mon
baseurl=file:///ceph/MON
gpgcheck=0
[osd]
name=osd
baseurl=file:///ceph/OSD
gpgcheck=0
[tools]
name=tools
baseurl=file:///ceph/Tools
gpgcheck=0
[root@node1 ~]# yum clean all               #清空缓存
[root@node1 ~]# yum repolist                #验证YUM源软件数量
源标识            源名称                    状态
Dvd                redhat                    9,911
Mon                mon                        41
Osd                osd                        28
Tools            tools                    33
repolist: 10,013
[root@node1 ~]# for i in  client  node1  node2  node3
do
	scp  /etc/yum.repos.d/ceph.repo   $i:/etc/yum.repos.d/
done
7)Client主机配置NTP服务器。
[root@client ~]# yum -y install chrony
[root@client ~]# vim /etc/chrony.conf
    allow 192.168.4.0/24        #修改26行
    local stratum 10            #修改29行(去注释即可)  时间服务器在第10层
[root@client ~]# systemctl restart chronyd
8)node1,node2,node3修改NTP客户端配置。

systemctl restart chronyd

[root@node1 ~]# vim /etc/chrony.conf
server 192.168.4.10   iburst              #配置文件第二行,手动添加一行新内容
[root@node1 ~]# systemctl restart chronyd
[root@node1 ~]# chronyc sources -v        #查看同步结果,应该是^*
[root@node2 ~]# vim /etc/chrony.conf
server 192.168.4.10   iburst              #配置文件第二行,手动添加一行新内容
[root@node2 ~]# systemctl restart chronyd
[root@node2 ~]# chronyc sources -v            #查看同步结果,应该是^*
[root@node3 ~]# vim /etc/chrony.conf
server 192.168.4.10   iburst              #配置文件第二行,手动添加一行新内容
[root@node3 ~]# systemctl restart chronyd
[root@node3 ~]# chronyc sources -v       #查看同步结果,应该是^*
  • 查看发现一主机时区不统一, 改
#EDT 时间即美国东部时间。这里要改为北京时间即可:

mv /etc/localtime       /etc/localtime.bak
ln -s /usr/share/zoneinfo/Asia/Shanghai     /etc/localtime

2 案例2:部署ceph集群

2.1 问题

沿用练习一,部署Ceph集群服务器,实现以下目标:

  1. 安装部署工具ceph-deploy
  2. 创建ceph集群
  3. 准备日志磁盘分区
  4. 创建OSD存储空间
  5. 查看ceph状态,验证
    返回

2.2 步骤
实现此案例需要按照如下步骤进行。

步骤一:安装部署软件ceph-deploy

1)在node1安装部署工具,学习工具的语法格式。

[root@node1 ~]#  yum -y install ceph-deploy
[root@node1 ~]#  ceph-deploy  --help
[root@node1 ~]#  ceph-deploy mon --help

2)创建目录(目录名称可以任意,推荐与案例一致)

[root@node1 ~]#  mkdir ceph-cluster
[root@node1 ~]#  cd ceph-cluster/

步骤二:部署Ceph集群

1)给所有节点安装ceph相关软件包
[root@node1 ceph-cluster]# for i in node1 node2 node3
do
    ssh  $i "yum -y install ceph-mon ceph-osd ceph-mds ceph-radosgw"
done
2)创建Ceph集群配置

在ceph-cluster目录下生成Ceph配置文件(ceph.conf)

在ceph.conf配置文件中定义monitor主机是谁。

  • 不能重复回车, 因 ceph.conf的的集群id 将不一样
  • 其他node主机没有配置文件
[root@node1 ceph-cluster]# ceph-deploy new node1 node2 node3
3)初始化所有节点的mon服务,也就是启动mon服务

拷贝当前目录的配置文件到所有节点的/etc/ceph/目录并启动mon服务。

[root@node1 ceph-cluster]# ceph-deploy mon create-initial
#配置文件ceph.conf中有三个mon的IP,ceph-deploy脚本知道自己应该远程谁
4) 在每个node主机查看自己的服务

(注意每台主机服务名称不同)

[root@node1 ceph-cluster]# systemctl status ceph-mon@node1
    [root@node2 ~]# systemctl status ceph-mon@node2
    [root@node3 ~]# systemctl status ceph-mon@node3
    #备注:管理员可以自己启动(start)、重启(restart)、关闭(stop),查看状态(status).
#提醒:这些服务在30分钟只能启动3次,超过就报错. 
#StartLimitInterval=30min
#StartLimitBurst=3
#在这个文件中有定义/usr/lib/systemd/system/ceph-mon@.service
#如果修改该文件,需要执行命令# systemctl  daemon-reload重新加载配置
5)查看ceph集群状态

(现在状态应该是health HEALTH_ERR)

[root@node1 ceph-cluster]# ceph -s

常见错误及解决方法(非必要操作,有错误可以参考):

如果提示如下错误信息:(如何无法修复说明环境准备有问题,需要重置所有虚拟机)

[node1][ERROR ] admin_socket: exception getting command descriptions: [Error 2] No such file or directory

返回
解决方案如下(仅在node1操作):

1)先检查自己的命令是否是在ceph-cluster目录下执行的!!!!如果确认是在该目录下执行的create-initial命令,依然报错,可以使用如下方式修复。

[root@node1 ceph-cluster]# vim ceph.conf      #文件最后追加以下内容
public_network = 192.168.4.0/24

2)修改后重新推送配置文件:

[root@node1 ceph-cluster]# ceph-deploy --overwrite-conf config push node1 node2 node3
[root@node1 ceph-cluster]# ceph-deploy --overwrite-conf mon  create-initial

3)如果还出错,可能是准备实验环境时配置的域名解析和主机名不一致!!!

步骤三:创建OSD

1) 初始化清空磁盘数据(仅node1操作即可)

初始化磁盘,将所有磁盘分区格式设置为GPT格式(根据实际情况填写磁盘名称)。

[root@node1 ceph-cluster]# ceph-deploy disk  zap  node1:sdb   node1:sdc   
[root@node1 ceph-cluster]# ceph-deploy disk  zap  node2:sdb   node2:sdc
[root@node1 ceph-cluster]# ceph-deploy disk  zap  node3:sdb   node3:sdc  
#相当于ssh 远程node1,在node1执行parted /dev/sdb  mktable  gpt
#其他主机都是一样的操作
#ceph-deploy是个脚本,这个脚本会自动ssh远程自动创建gpt分区

思考?

# vim test.sh
#!/bin/bash
case $1 in
user)
     useradd -u 1000 $2;;
disk)
     partd  /dev/$2  mktable  gpt;;
esac
# chmod +x test.sh
# ./test.sh  user  jerry
# ./test.sh  disk  sdc

执行上面的脚本没有指定账户UID,为什么会自动创建一个UID为1000的用户?

执行上面的脚本没有指定磁盘分区表类型,为什么创建的分区表类型为gpt类型?

上面的脚本如果执行时不给位置变量的参数为怎么样?

2)创建OSD存储空间(仅node1操作即可)

重要:这里易出错!将主机名、设备名称输入错误!!!

远程所有node主机,创建分区,格式化磁盘,挂载磁盘,启动osd服务共享磁盘

[root@node1 ceph-cluster]# ceph-deploy osd create node1:sdb  node1:sdc
#每个磁盘都会被自动分成两个分区;一个固定5G大小;一个为剩余所有容量
#5G分区为Journal日志缓存;剩余所有空间为数据盘。
[root@node1 ceph-cluster]# ceph-deploy osd create node2:sdb  node2:sdc
[root@node1 ceph-cluster]# ceph-deploy osd create node3:sdb  node3:sdc

提醒:ceph-deploy是个脚本,脚本会自动创建分区、格式化、挂载!

怎么验证分区了?怎么验证格式化?怎么验证挂载了?

[root@node1 ~]# df -Th
[root@node2 ~]# df -Th
[root@node3 ~]# df -Th
  • lsblk为列出所有块设备 和df命令列出挂载的设备及文件
3)在三台不同的主机查看OSD服务状态,可以开启、关闭、重启服务

返回

[root@node1 ~]# systemctl status ceph-osd@0
    [root@node2 ~]# systemctl status ceph-osd@2
    [root@node3 ~]# systemctl status ceph-osd@4

#备注:管理员可以自己启动(start)、重启(restart)、关闭(stop),查看状态(status).
#提醒:这些服务在30分钟只能启动3次,超过就报错.
#StartLimitInterval=30min
#StartLimitBurst=3
#在这个文件中有定义/usr/lib/systemd/system/ceph-osd@.service
#如果修改该文件,需要执行命令# systemctl  daemon-reload重新加载配置

常见错误及解决方法(非必须操作)

使用osd create创建OSD存储空间时,如提示下面的错误提示:

[ceph_deploy][ERROR ] RuntimeError: bootstrap-osd keyring not found; run 'gatherkeys'
可以使用如下命令修复文件,重新配置ceph的密钥文件: gatherkeys
[root@node1 ceph-cluster]#  ceph-deploy gatherkeys node1 node2 node3

步骤四:验证测试

  1. 查看集群状态。
[root@node1 ~]#  ceph  -s
[root@node1 ~]#  ceph   osd   tree

2)常见错误(非必须操作)

如果查看状态包含如下信息:

health: HEALTH_WARN
        clock skew detected on  node2, node3…

clock skew表示时间不同步,解决办法:请先将所有主机的时间都使用NTP时间同步!!!

Ceph要求所有主机时差不能超过0.05s,否则就会提示WARN。

如果状态还是失败,可以尝试执行如下命令,重启所有ceph服务:

[root@node1 ~]#  systemctl restart ceph.target
  • 当关闭其中一台mon时 , 不影响使用, 只警告
  • 当关闭两台时, 由于过半原则, ceph集群不能正常

返回

#全部开启mon
[root@node1 ceph-deploy]# ceph -s
    cluster f23f1d1b-c791-4a53-b67a-0163fd88951b
     health HEALTH_OK
     monmap e1: 3 mons at {node1=192.168.4.11:6789/0,node2=192.168.4.12:6789/0,node3=192.168.4.13:6789/0}
            election epoch 12, quorum 0,1,2 node1,node2,node3
     osdmap e50: 6 osds: 6 up, 6 in
            flags sortbitwise
      pgmap v129: 64 pgs, 1 pools, 0 bytes data, 0 objects
            203 MB used, 91890 MB / 92093 MB avail
                  64 active+clean
#关闭一台mon
[root@node2 ~]# systemctl stop ceph-mon@node2
[root@node1 ceph-deploy]# ceph -s
    cluster f23f1d1b-c791-4a53-b67a-0163fd88951b
     health HEALTH_WARN
            1 mons down, quorum 0,1 node1,node2
     monmap e1: 3 mons at {node1=192.168.4.11:6789/0,node2=192.168.4.12:6789/0,node3=192.168.4.13:6789/0}
            election epoch 14, quorum 0,1 node1,node2
     osdmap e50: 6 osds: 6 up, 6 in
            flags sortbitwise
      pgmap v129: 64 pgs, 1 pools, 0 bytes data, 0 objects
            203 MB used, 91890 MB / 92093 MB avail
                  64 active+clean
#关闭两台mon
[root@node3 ~]# systemctl stop ceph-mon@node3

[root@node1 ceph-deploy]# ceph -s
2020-07-28 17:11:18.469972 7f74d015c700  0 -- :/425810592 >> 192.168.4.13:6789/0 pipe(0x7f74cc05c400 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74cc05d6c0).fault
2020-07-28 17:11:21.471044 7f74c8ff9700  0 -- :/425810592 >> 192.168.4.12:6789/0 pipe(0x7f74c0000c80 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c0001f90).fault
2020-07-28 17:11:24.471787 7f74d015c700  0 -- :/425810592 >> 192.168.4.13:6789/0 pipe(0x7f74c0005270 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c0006530).fault
2020-07-28 17:11:30.473872 7f74c8ef8700  0 -- 192.168.4.11:0/425810592 >> 192.168.4.12:6789/0 pipe(0x7f74c0005270 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c0002d40).fault
2020-07-28 17:11:33.474824 7f74d015c700  0 -- 192.168.4.11:0/425810592 >> 192.168.4.13:6789/0 pipe(0x7f74c0000c80 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c00080d0).fault
2020-07-28 17:11:39.479632 7f74d015c700  0 -- 192.168.4.11:0/425810592 >> 192.168.4.13:6789/0 pipe(0x7f74c0000c80 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c0008d00).fault
2020-07-28 17:11:45.478643 7f74d015c700  0 -- 192.168.4.11:0/425810592 >> 192.168.4.12:6789/0 pipe(0x7f74c0000c80 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c00035e0).fault
2020-07-28 17:11:48.479677 7f74c8ef8700  0 -- 192.168.4.11:0/425810592 >> 192.168.4.13:6789/0 pipe(0x7f74c000a250 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c0003e50).fault
2020-07-28 17:11:51.480237 7f74d015c700  0 -- 192.168.4.11:0/425810592 >> 192.168.4.12:6789/0 pipe(0x7f74c0000c80 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c00094f0).fault
2020-07-28 17:11:57.481440 7f74c8ff9700  0 -- 192.168.4.11:0/425810592 >> 192.168.4.12:6789/0 pipe(0x7f74c0000c80 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c000c120).fault
2020-07-28 17:12:00.481513 7f74d015c700  0 -- 192.168.4.11:0/425810592 >> 192.168.4.13:6789/0 pipe(0x7f74c0009e50 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c000cad0).fault
2020-07-28 17:12:03.482559 7f74c8ff9700  0 -- 192.168.4.11:0/425810592 >> 192.168.4.12:6789/0 pipe(0x7f74c0000c80 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c000d380).fault
2020-07-28 17:12:09.484235 7f74c8ff9700  0 -- 192.168.4.11:0/425810592 >> 192.168.4.13:6789/0 pipe(0x7f74c0000c80 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c0005270).fault
2020-07-28 17:12:15.485735 7f74c8ff9700  0 -- 192.168.4.11:0/425810592 >> 192.168.4.12:6789/0 pipe(0x7f74c0000c80 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c0005440).fault
2020-07-28 17:12:18.486549 7f74d015c700  0 -- 192.168.4.11:0/425810592 >> 192.168.4.13:6789/0 pipe(0x7f74c0009e50 sd=3 :0 s=1 pgs=0 cs=0 l=1 c=0x7f74c000ef40).fault

#打开一台mon后, cluster自动正常,   health HEALTH_WARN
[root@node2 ~]# systemctl start ceph-mon@node2

    cluster f23f1d1b-c791-4a53-b67a-0163fd88951b
     health HEALTH_WARN
            1 mons down, quorum 0,1 node1,node2
     monmap e1: 3 mons at {node1=192.168.4.11:6789/0,node2=192.168.4.12:6789/0,node3=192.168.4.13:6789/0}
            election epoch 16, quorum 0,1 node1,node2
     osdmap e50: 6 osds: 6 up, 6 in
            flags sortbitwise
      pgmap v129: 64 pgs, 1 pools, 0 bytes data, 0 objects
            203 MB used, 91890 MB / 92093 MB avail
                  64 active+clean
# 全部开启mon  , health HEALTH_OK
[root@node3 ~]# systemctl start ceph-mon@node3
[root@node3 ~]# ceph -s
    cluster f23f1d1b-c791-4a53-b67a-0163fd88951b
     health HEALTH_OK
     monmap e1: 3 mons at {node1=192.168.4.11:6789/0,node2=192.168.4.12:6789/0,node3=192.168.4.13:6789/0}
            election epoch 18, quorum 0,1,2 node1,node2,node3
     osdmap e50: 6 osds: 6 up, 6 in
            flags sortbitwise
      pgmap v129: 64 pgs, 1 pools, 0 bytes data, 0 objects
            203 MB used, 91890 MB / 92093 MB avail
                  64 active+clean
[root@node3 ~]# 

  • 同理, 当关闭或故障 , osd 设备节点 停止 超多一半时, 集群将不能使用

3 案例3:创建Ceph块存储

3.1 问题
沿用一,使用Ceph集群的块存储功能,实现以下目标:

  1. 创建块存储镜像
  2. 客户端映射镜像
  3. 删除镜像
    返回

3.2 步骤
实现此案例需要按照如下步骤进行。

步骤一:创建镜像

1)查看存储池,默认存储池名称为rbd

[root@node1 ~]# ceph osd lspools
0 rbd,
#查看结果显示,共享池的名称为rbd,这个共享池的编号为0,英语词汇:pool(池塘、水塘)

2)创建镜像、查看镜像

[root@node1 ~]# rbd create demo-image --image-feature  layering --size 10G
#创建demo-image镜像,这里的demo-image创建的镜像名称,名称可以为任意字符。
#size可以指定镜像大小
[root@node1 ~]# rbd create rbd/jacob  --image-feature  layering --size 10G
#在rbd池中创建名称为jacob的镜像(rbd/jacob),镜像名称可以任意

–image-feature参数指定我们创建的镜像有哪些功能,layering是开启COW功能

提示:ceph镜像支持很多功能,但很多是操作系统不支持的,我们只开启layering。

[root@node1 ~]# rbd list                    #列出所有镜像
[root@node1 ~]# rbd info demo-image        #查看demo-image这个镜像的详细信息
rbd image 'demo-image':
    size 10240 MB in 2560 objects
    order 22 (4096 kB objects)
    block_name_prefix: rbd_data.d3aa2ae8944a
    format: 2
    features: layering

步骤二:动态调整

1)扩容容量

[root@node1 ~]# rbd resize --size 15G jacob             
#调整jacob镜像的大小,jacob是镜像的名称,size指定扩容到15G
[root@node1 ~]# rbd info jacob

2)缩小容量

[root@node1 ~]# rbd resize --size 7G jacob --allow-shrink
#英文词汇:allow(允许),shrink(缩小)
[root@node1 ~]# rbd info jacob
#查看jacob这个镜像的详细信息(jacob是前面创建的镜像)

返回

步骤三:通过KRBD访问

Linux内核可用直接访问Ceph块存储,KVM可用借助于librbd访问Ceph块存储。
客户端访问结构
在这里插入图片描述

1)客户端通过KRBD访问

  • 服务端密码文件
root@node2 ~]# cat /etc/ceph/ceph.conf

[global]
fsid = f23f1d1b-c791-4a53-b67a-0163fd88951b
mon_initial_members = node1, node2, node3
mon_host = 192.168.4.11,192.168.4.12,192.168.4.13
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx             //cephx 为密码占位符, 若non为无密码

[root@node2 ceph]# cat ceph.client.admin.keyring    //此为密码文件
[client.admin]
	key = AQDY/h5fxRZlGxAAIu6tSJcGhCOJa+Qy0GB5uA==  // AQDY/h5fxRZlGxAAIu6tSJcGhCOJa+Qy0GB5uA== 为密码
[root@node2 ceph]# 

  • 复制密码文件
  1. 客户端需要安装ceph-common软件包
  2. 拷贝配置文件(否则不知道集群在哪)
  3. 拷贝连接密钥(否则无连接权限)

[root@client ~]# yum -y  install ceph-common
[root@client ~]# scp 192.168.4.11:/etc/ceph/ceph.conf  /etc/ceph/
[root@client ~]# scp 192.168.4.11:/etc/ceph/ceph.client.admin.keyring \
/etc/ceph/
[root@client ~]# rbd    map  jacob          #客户端访问映射服务器的jacob共享镜像
[root@client ~]#  lsblk                   #查看结果(会多一块磁盘)
[root@client ~]# rbd showmapped          #查看磁盘名和共享镜像名称的对应关系
id pool image snap device    
0  rbd  jacob -    /dev/rbd0
  1. 客户端格式化、挂载分区
[root@client ~]# mkfs.xfs /dev/rbd0                     #格式化,格式为xfs
[root@client ~]# mount /dev/rbd0 /mnt/                  #挂载(可以挂载到任意目录)
[root@client ~]# echo "test" > /mnt/test.txt           #写入数据

步骤四:删除镜像

1) 客户端撤销磁盘映射

[root@client ~]# umount /mnt                      #卸载
[root@client ~]# rbd showmapped                  #查看磁盘名和共享镜像名称的对应关系
id pool image        snap device    
0  rbd  jacob        -    /dev/rbd0
[root@client ~]# rbd unmap /dev/rbd0            #撤销磁盘映射

返回

附加信息:Ceph操作思路(知识总结)

  • 一、准备工作:

IP,主机名,hosts解析,ssh密钥,时间同步,yum源,防火墙,selinux

  • 二、部署ceph:

  • 1.安装软件

ceph-deploy(脚本)
  ceph-mon  ceph-osd  ceph-mds  ceph-radosgw(集群)
  • 2.修改配置启动服务mon
mkdir  目录;cd 目录
  ceph-deploy  new  node1   node2   node3  (生成配置文件)
  ceph-deploy  mon  create-initial  (拷贝配置文件并启动mon服务)
  • 3.启动osd服务共享硬盘
ceph-deploy  disk  zap   主机名:磁盘名  ...  ...
  ceph-deploy  osd  create  主机名:磁盘   ...  ...
  • 三、使用Ceph的思路:

  • 1.块共享

服务器: rbd  create  创建一个共享镜像
  客户端: 安装cpeh-common;  cp 配置文件和密钥
          rbd  map  |  rbd  unmap

附加知识(如何删除某个OSD,下面的假设是删除osd.4)

ceph osd tree
ceph osd out osd.4
ceph osd tree
ceph -s
ceph osd crush remove osd.4
ceph auth del osd.4
ceph -s
ceph osd rm osd.4

最后要找到对应的主机,umount把osd.4对应的磁盘卸载

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值