概述
Ceph 作为分布式文件系统,不但具有高可靠性、高扩展性、高性能, 也是统一存储系统,支持对象存储、块存储、文件存储,本文介绍如何使用Ceph 块存储作为OpenStack的Glance、Nova、Cinder组件的后端存储
前面已经分享过ceph 集群的部署,下面如何让openstack在glance、cinder、nova组件后端配置使用ceph来进行存储
参考文档
http://docs.ceph.com/docs/master/rbd/rbd-openstack/
环境信息
192.168.3.8 ceph node1 (部署mon,mds)
192.168.3.9 ceph node2 (部署osd)
192.168.3.10 ceph node3 (部署osd)
192.168.3.4 openstack (devstack 部署,包括 controller, network,compute)
说明
ceph 不支持qcow2格式的镜像,所以如果配置nova部分如果要启动虚拟机在ceph ,镜像必须是raw
配置glance
配置认证
1. 将node1节点/etc/ceph目录下的两个文件拷贝到openstack 的 controller节点和compute节点(我这里都在一个节点)
cd /etc/ceph/
scp ceph.conf ceph.client.admin.keyring 192.168.3.4:/etc/ceph/
2. 修改ceph.client.admin.keyring的权限
chmod +r /etc/ceph/ceph.client.admin.keyring
3. 在ceph148上创建glance的存储池
rados mkpool glance
4. 编辑openstack上glance的配置文件/etc/glance/glance-api.conf中如下配置项
rbd_store_ceph_conf = /etc/ceph/ceph.conf
stores = rbd (L 以前版本不需要这个)
default_store = rbd
rbd_store_user = admin (这里的用户名是上面cephx认证的用户)
rbd_store_pool = glance
rbd_store_chunk_size = 8
6,重启glance-api 服务
7,上传一个镜像
stack@map-VirtualBox:~/devstack$ glance image-create