前言
Ceph 集群可以作为 OpenStack 的后端存储,分别向 Glance、Nova、Cinder 组件提供块设备服务。——《Ceph 设计原理与实现》
根据官方文档,OpenStack 里有三个地方可以和 Ceph 块设备结合:
Images:OpenStack 的 Glance 管理着 VM 的 image 。Image 相对恒定,OpenStack 把它们当作二进制文件、并以此格式下载。
Volumes:OpenStack 用 Cinder 服务管理 Volumes 。Volume 是块设备,OpenStack 用它们引导虚拟机、或挂载到运行中的虚拟机上。
Guest Disks: Guest disks 是装有客户操作系统的磁盘。默认情况下,启动一台虚拟机时,它的系统盘表现为 hypervisor 文件系统的一个文件(通常位于 /var/lib/nova/instances/${uuid}/)。
测试环境
openstack 测试环境
| 节点名称 | IP | 组件 | 对应存储池 |
|---|---|---|---|
| controller | 192.168.100.10 | Glacne | images |
| compute1 | 192.168.100.20 | Nova | vms |
| compute2 | 192.168.100.30 | Cinder | volumes |
openstack搭建过程请参考我这一篇博客:多节点安装OpenStack R版
ceph测试环境
| 节点名称 | IP |
|---|---|
| controller | 192.168.100.10 |
| compute1 | 192.168.100.20 |
| compute2 | 192.168.100.30 |
注:Ceph集群是搭建在OpenStack环境中的
ceph集群的构建
[root@controller ~]# mkdir ceph 创建工作目录
[root@controller ceph]# yum install -y ceph-deploy 只在控制节点安装下载批量部署工具
所有节点安装ceph
yum install -y ceph
进入ceph目录
[root@controller ceph]# ceph-deploy new controller compute1 compute2 //创建一个新的集群 并把相应节点加入到集群中
[root@controller ceph]# iptables -F 所有节点先执行这个
[root@controller ceph]# ceph-deploy mon create-initial 初始化认证文件
创建osd
[root@controller ceph]# ceph-deploy osd create --data /dev/sdb controller
[root@controller ceph]# ceph-deploy osd create --data /dev/sdb compute1
[root@controller ceph]# ceph-deploy osd create --data /dev/sdb compute2
[root@controller ceph]# ceph-deploy admin controller compute1 compute2 下载认证文件
在compute1和compute2执行如下命令
[root@compute1 ~]# cd /etc/ceph/
OpenStack与Ceph集成:搭建与验证

本文档详细介绍了如何在OpenStack环境中集成Ceph存储,包括创建Ceph集群、设置存储池、配置Glance、Cinder和Nova组件,以及验证对接成功的步骤。通过这些步骤,Ceph为OpenStack提供了块设备服务,支持虚拟机镜像、卷和客户磁盘的存储需求。
最低0.47元/天 解锁文章
684

被折叠的 条评论
为什么被折叠?



