Centos6.5 下ceph 0.80.7源码安装配置

15 篇文章 0 订阅
11 篇文章 0 订阅

系统环境

本次ceph是在openstack平台上进行的,在openstack平台上创建6台instances,2台作为mon节点,4台作为osd节点。

Openstack-icehouse

ceph 0.80.7

Centos 6.5 x86-64

Ceph安装

升级内核

编译内核,添加rbd、ceph选项

安装依赖包

#rpm –ivh epel-release-6-8.noarch.rpm
#yum -y install libuuid-devel libblkid-devel libudev-devel  keyutils-libs-devel cryptopp-devel  fuse-devel google-perftools-devel libedit-devel libatomic_ops-devel snappy-devel leveldb-devel libaio-devel xfsprogs-devel boost-devel python-pip redhat-lsb

其他配置

修改hosts文件如下
10.10.200.3 mon1
10.10.200.4 mon2
10.10.200.5 osd1
10.10.200.6 osd2
10.10.200.7 osd3
10.10.200.8 osd4

关闭防火墙
#service iptables stop

设置SSH无密码访问主机
#ssh-keygen
#ssh-copy-id root@mon1
#ssh-copy-id root@mon2
#ssh-copy-id root@osd1
#ssh-copy-id root@osd2
#ssh-copy-id root@osd3
#ssh-copy-id root@osd4

安装ceph

#tar –zxvf ceph-0.80-7.tar.gz
#cd ceph-0.80.7
#CXXFLAGS="-g -O2" ./configure --prefix=/usr/local --sbindir=/sbin --localstatedir=/var --sysconfdir=/etc
#make && make install

安装argparse

#pip install argparse

配置ceph库文件

#cp -vf /usr/local/lib/python2.6/site-packages/* /usr/lib64/python2.6/site-packages
#echo /usr/local/lib >/etc/ld.so.conf.d/ceph.conf
#ldconfig

Ceph配置

添加ceph配置文件

#cp ceph-0.80.7/src/sample.ceph.conf /etc/ceph/ceph.conf
#cp ceph-0.80.7/src/sample.fetch_conf /etc/ceph/fetch_conf
#cp ceph-0.80.7/src/init-ceph /etc/init.d/ceph


修改ceph配置文件ceph.conf如下,并将配置文件复制到各节点中

[global]
    pid file                   = /var/run/ceph/$name.pid
    auth cluster required      = cephx
    auth service required      = cephx
    auth client required       = cephx
    keyring                  = /etc/ceph/keyring.admin
[mon]
    mon data                   = /mon
[mon.alpha]
    host                       = mon1 
    mon addr                   = 10.10.200.3:6789
[mon.beta]
    host                       = mon2
    mon addr                   = 10.10.200.4:6789
[mds]
[osd]
osd data                     = /osd/$name
osd mkfs type = xfs 
osd journal                  = /osd/$name/journal
keyring = /etc/ceph/keyring.$name
osd crush update on start = false
[osd.0]
    host                         = osd1
    devs                         = /dev/vdb
[osd.1]
    host                         = osd2 
    devs                         = /dev/vdb
[osd.2]
    host                         = osd3 
    devs                         = /dev/vdb
[osd.3]
    host                         = osd4 
    devs                         = /dev/vdb

在各osd端做以下操作

osd.0
#mkdir /osd/osd.0
#mkfs.xfs /dev/vdb
#mount /dev/vdb /osd/osd.0

osd.1
#mkdir /osd/osd.1
#mkfs.xfs /dev/vdb
#mount /dev/vdb /osd/osd.1

osd.2
#mkdir /osd/osd.2
#mkfs.xfs /dev/vdb
#mount /dev/vdb /osd/osd.2

osd.3
#mkdir /osd/osd.3
#mkfs.xfs /dev/vdb
#mount /dev/vdb /osd/osd.3

启动ceph

初始化ceph

#mkcephfs -a -c /etc/ceph/ceph.conf

启动ceph

#/etc/init.d/ceph -a start

ceph状态

[root@mon1 ~]# ceph -s
    cluster 1cf40c50-7283-4653-9fe1-56a633df5d24
     health HEALTH_OK
     monmap e1: 2 mons at {alpha=10.10.200.3:6789/0,beta=10.10.200.4:6789/0}, election epoch 12, quorum 0,1 alpha,beta
     osdmap e36: 4 osds: 4 up, 4 in
      pgmap v102: 768 pgs, 3 pools, 132 bytes data, 2 objects
            20639 MB used, 579 GB / 599 GB avail
                 768 active+clean


osd状态

[root@mon1 ~]# ceph osd tree
# id    weight  type name       up/down reweight
-1      4       root default
-3      4               rack unknownrack
-2      1                       host osd1
0       1                               osd.0   up      1
-4      1                       host osd2
1       1                               osd.1   up      1
-5      1                       host osd3
2       1                               osd.2   up      1
-6      1                       host osd4
3       1                               osd.3   up      1

Ceph安装问题解决

Q1:在启动ceph osd过程中,碰到df: `/osd/osd.0/.': No such file or directory,df: no file systems processed问题
解决方法:
在ceph.conf配置文件OSD段添加
osd crush update on start = false

Q2:在正常启动ceph后,ceph -s查看ceph状态,提示有许多pg处于degrade状态
解决方法:
#ceph osd getcrushmap -o /tmp/crushmap
#crushtool -d /tmp/crushmap -o /tmp/crushmap.txt
#vi /tmp/crushmap.txt
Find a line: "step chooseleaf firstn 0 type host" and change it to "step chooseleaf firstn 0 type osd".
#crushtool -c /tmp/crushmap.txt -o /tmp/crushmap.new 
#ceph osd setcrushmap -i /tmp/crushmap.new
重启ceph
#/etc/init.d/ceph -a restart

Q3:在正常启动ceph后,ceph -s查看ceph状态,提示信息ALTH_WARN clock skew detected on mon.beta
解决方法:
两台mon服务器分别同步时间,因为自己搭建的时间服务器,所以使用内部时间服务器
#ntpdate -u 10.10.200.163





 
简介: 4 一:安装配置环境介绍 5 1:系统版本: 5 2:内核版本: 5 3:ceph版本: 5 4:ceph-deploy版本: 5 4:网络拓扑图 6 5:设备位置图 6 6:服务器配置信息及运行服务统计 7 二:系统软件基础包初始化: 10 1:安装 EPEL 软件源: 10 2:常用软件包、常用工具等(非必须、推荐安装) 10 三:集群主机系统初始化准备 10 1:规范系统主机名; 11 2:添加hosts文件实现集群主机名与主机名之间相互能够解析 11 3:每台 ssh-copy-id 完成这些服务器之间免ssh密码登录; 11 4:关闭防火墙或者开放 6789/6800~6900端口、关闭SELINUX; 11 5:关闭防火墙及开机启动 12 5:配置ntp服务,保证集群服务器时间统一; 12 6:系统优化类 12 四:集群优化配置 12 1:优化前提 12 2: 开启VT和HT 13 3:关闭CPU节能 13 4:关闭NUMA 13 5:网络优化 15 6:修改read_ahead 15 7:关闭swap 16 8:调整Kernel pid max 16 9:修改I/O Scheduler 16 五:安装部署主机(ceph-deploy)安装环境准备 17 1:建立主机列表 17 2:为所有集群主机创建一个 ceph 工作目录 17 3:同步hosts文件 17 4:测试主机名解析 17 5:ceph-deploy安装配置 18 六:创建mon 节点 18 1:安装部署集群软件包: 18 2:在安装部署节使用ceph-deploy创建,生成MON信息: 18 3:添加初始monitor节点和收集秘钥 18 4:验证集群mon节点安装成功 19 七:安装集群osd服务 19 1:查看一下 Ceph 存储节点的硬盘情况: 19 2:批量格式化磁盘 20 3:执行osd初始化命令 21 4:验证日志写入位置在ssd 硬盘分区成功 22 5:验证osd启动状态 22 6:PGs per OSD (2 < min 30)报错解决: 23 7:官方推荐pg计算公式 24 八:添加元数据服务器 24 1:添加元数据服务器 24 2:验证mds服务 24 3:删除mds节点 26 4:同步集群配置文件 26 九:crush 规则配置 26 1:ceph crush规则介绍 26 2:集群crush规则配置 27 3:修改crushmap信息 28 十:集群配置清理 29 1:清理软件包 29 2:卸载之前挂载的osd磁盘 29 3:将写入分区表的分区挂载 29 4:查看一下状态,仅剩余系统盘 30 5:清理残余key文件和残余目录 30 6:新建安装目录 30 7:重新部署集群 30 十一:集群配置参数优化 30 1:配置参数优化 30 2:同步集群配置文件 49 十二:ceph集群启动、重启、停止 49 1:ceph 命令的选项 49 2:启动所有守护进程 50 3:启动单一实例 50 十三:维护常用命令 50 1:检查集群健康状况 50 1:检查集群健康状况 50 2:检查集群的使用情况 51 3:检查集群状态 51 4:检查MONITOR状态 52 5:检查 MDS 状态: 52 十四:集群命令详解 52 1:mon 相关 52 2: msd 相关 53 4:ceph auth 相关 54 5:osd 相关 54 6:pool 相关 56 7:rados命令相关 57 8:PG 相关 59 9: rbd命令相关 61 十五:ceph 日志和调试设置 63 1:配置文件修改 63 2:在线修改日志输出级别 63 3:修改集群子系统,日志和调试设置 64 4:日志输出级别默认值 65
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值