ceph-deploy部署Ceph Luminous

环境说明

角色
主机名
IP
OS
硬盘
admin
admin
10.0.0.230
CentOS 7.4
mon & osd & mgr & mds
node231
10.0.0.231
CentOS 7.4
/dev/vda
/dev/vdb
mon & osd & mgr
node232
10.0.0.232
CentOS 7.4
/dev/vda
/dev/vdb
mon & osd & mgr
node233
10.0.0.233
CentOS 7.4
/dev/vda
/dev/vdb
client
client
10.0.0.234
CentOS 7.4

按以上表格所示,设置各台服务器的主机名。

hostnamectl set-hostname 主机名

以下操作需要在所有节点执行

停止防火墙

systemctl disable firewalld

systemctl stop firewalld

禁止selinux.

vim /etc/selinux/config

配置为disabled

配置/etc/hosts

10.0.0.230 admin

10.0.0.231 node231

10.0.0.232 node232

10.0.0.233 node233

10.0.0.234 client

更换yum源为国内阿里云

http://blog.csdn.net/chenhaifeng2016/article/details/78864541

添加ceph安装源

vim /etc/yum.repos.d/ceph.repo

[Ceph]
name=Ceph packages for $basearch
baseurl=http://mirrors.aliyun.com/ceph/rpm-luminous/el7/$basearch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc

[Ceph-noarch]
name=Ceph noarch packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-luminous/el7/noarch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc

[ceph-source]
name=Ceph source packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-luminous/el7/SRPMS
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc

安装ntp

yum install ntp

systemctl enable ntpd

systemctl start ntpd

查看ntp状态

ntpq -p

重启所有节点

shutdown -r now 或者reboot

以下操作只需在admin节点运行

配置ssh免密登录 

ssh-keygen 

ssh-copy-id admin

ssh-copy-id node231

ssh-copy-id node232

ssh-copy-id node233

ssh-copy-id client

安装ceph-deploy

yum install ceph-deploy

创建配置文件目录

mkdir -p /etc/ceph

cd /etc/ceph

创建一个ceph集群

cepy-deploy new node231

在所有节点上安装ceph二进制软件包

ceph-deploy admin node231 node232 node233 client

ceph -v或ceph version

创建一个Ceph MON

ceph-deploy mon create-initial

创建Ceph OSD

ceph-deploy disk list node231

ceph-deploy disk zap node231:vdb

ceph-deploy disk zap node232:vdb

ceph-deploy disk zap node233:vdb

ceph-deploy --overwrite-conf osd create node231:vdb
ceph-deploy --overwrite-conf osd create node232:vdb
ceph-deploy --overwrite-conf osd create node233:vdb
编辑文件/etc/ceph/ceph.conf添加以下内容
public_network = 10.0.0.0/24
拷贝配置文件到各个节点
ceph-deploy admin client node231 node232 node233
创建MON
ceph-deploy --overwrite-conf mon create node231
ceph-deploy --overwrite-conf admin node231
ceph-deploy --overwrite-conf mon create node232
ceph-deploy --overwrite-conf admin node232
ceph-deploy --overwrite-conf mon create node233
ceph-deploy --overwrite-conf admin node233
这个时候在3个节点分别建立了MON和OSD.
查看一下状态
有3个MON, 3个OSD, 但是cluster的状态是HEALTH_WARN, 原因为是no active mgr, 接下来创建Ceph MGR
ceph-deploy mgr create node231
ceph-deploy mgr create node232
ceph-deploy mgr create node233
到这一步,ceph集群已经安装完成。
接下来测试一下块存储, 以下操作在client节点进行。
创建一个新的存储池,而不是使用默认的rbd
ceph osd pool create test 128
创建一个块
rbd create --size 10G disk01 --pool test
查看rbd
查看块的特性
rbd info --pool test disk01

由于内核不支持,需要禁止一些特性,只保留layering

rbd --pool test feature disable disk01 exclusive-lock, object-map, fast-diff, deep-flatten

映射块disk01到本地

rbd map --pool test disk01

格式化块设备

mkfs.ext4 /dev/rbd0

把rbd0挂载到本地目录

mount /dev/rbd0 /mnt

这个时候查看集群状态, 集群的状态是HEALTH_WARN

执行ceph health detail

根据提示信息执行ceph osd pool application enable test rbd

集群状态正常了。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值