Openstack平台Glance后端存储对接Ceph

Openstack平台Glance后端存储对接Ceph

一、前情提要

​ !!!关于Ceph存储的介绍,上一篇章已经讲解,这里以操作为主,之后还会补充Nova组件和Cinder组件

​ (关于这篇文档的相关连接会放在结尾)

二、虚拟机环境

Ceph集群
storage1172.129.22.10
storage2172.129.22.20
storage3172.129.22.30
Openstack平台
controller172.129.22.100
compute172.129.22.100

三、配置Glance后端存储

前置环境配置

# storage1节点
scp /etc/yum.repos.d/ceph.repo 172.129.22.100:/etc/yum.repos.d/

# 借助storage1的ceph-deploy(storage1节点)
# 进入你的ceph.conf文件所在的目录
# 在下这里延用上篇文档的路径(/root/ceph-cluster)
cd /etc/ceph-cluster
ceph-deploy install --no-adjust-repos controller

ceph-deploy admin controller   # 将ceph.conf分发给controller节点

创建存储池和存储用户认证

# storage1节点
ceph osd pool create images 128

ceph auth get-or-create client.glance mon 'allow r' osd 'allow rwx pool=images' -o ceph.client.glance.keyring
# 创建用户glance,设置对于监控节点的权限为只读,对存储池的权限为读写执行,最后将配置输出到文件中

传输认证文件并且配置权限

# storage1节点
scp ceph.client.glance.keyring 172.129.22.100:/etc/ceph/

# controller节点
chown glance:glance /etc/ceph/ceph.client.glance.keyring

配置Glance文件

# controller节点
vi /etc/glance/glance-api.conf

# 通过命令模式的'/'来找到'glance_store'
# 将其下面三条注释
[glance_store]
# stores = file,http
# demo_store = cinder
# filesystem_store_datadir = /var/lib/glance/images/

# 添加或者找到以下参数进行修改(建议寻找,然后进行修改)
stores = rbd                                 # 设置存储后端
default_store = rbd                          # 设置默认存储后端
rbd_store_chunk_size = 8                     # 设置上传或者下载到ceph存储池的大小(G)
rbd_store_pool = images                      # 设置存储池名字
rbd_store_user = glance                      # 设置存储用户名
rbd_store_ceph_conf = /etc/ceph/ceph.conf    # 设置ceph的配置文件

:wq
# 保存文件并退出

!!!验证操作

# controller节点
systemctl restart openstack-glance-api   # 重启glance-api服务

# 创建一个新镜像
source /etc/keystone/admin-openrc.sh

openstack image create centos --file centos.qcow2 --disk-format qcow2 --container-format bare
# (这里各位大佬可以使用自己的镜像)


# storage1节点验证
ceph df                # 查看每个存储池的空间使用情况
#RAW STORAGE:
#    CLASS     SIZE       AVAIL      USED        RAW USED     %RAW USED
#    hdd       60 GiB     52 GiB     4.7 GiB      7.7 GiB         12.83
#    TOTAL     60 GiB     52 GiB     4.7 GiB      7.7 GiB         12.83
#POOLS:
#    POOL       ID     PGS     STORED      OBJECTS     USED        %USED     MAX AVAIL
#    images      1     128     1.6 GiB         206     4.7 GiB      8.68        16 GiB

总结

​ Ceph集群对于在下这个小趴菜来说还是比较艰难的,希望各位大佬及时为我指出错误,让在下能够及时更改!!!

源网址: 云计算-Openstack云平台对接Ceph构建存储融合-云社区-华为云 (huaweicloud.com)

  • 13
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值