开源实践分享:Ceph bluestore部署实践

Ceph bluestore部署

首先为大家分享Ceph bluestore具体该如何部署,使用环境如下

•   单节点

•   CentOS 7.4

•   使用ceph-deploy 进行部署

准备 centos 7.4 系统的机器,并配置好 ssh 的无密码登录。


安装 ceph-deploy

yum install https://download.ceph.com/rpm-luminous/el7/noarch/ceph-deploy-2.0.0-0.noarch.rpm

数据 ceph 安装包

mkdir ceph-install

cd ceph-install

ceph-deploy new node1

把如下内容加入到 ceph.conf 里面,把默认的副本数据调成1。

[global]

osd pool default size =1

osd pool default min size=1

安装 ceph

ceph-deploy install--release luminous node2

初始化 mon

ceph-deploy moncreate-initial

ceph-deploy admin node1

这时 ceph 已经可以访问了

$ ceph -s

  cluster:

    id:    5b2f0020-fc24-44de-a6c9-a88efdc5074f

  health: HEALTH_OK

  services:

    mon: 1daemons, quorum node1

    mgr: nodaemons active

    osd: 0 osds:0 up, 0 in

  data:

    pools:  0 pools, 0 pgs

    objects: 0objects, 0 bytes

    usage:  0 kB used, 0 kB / 0 kB avail

    pgs:

 

接下来要部署 ceph mgr, 这个组件在 Luminous 里面是必装组件

ceph-deploy  mgrcreate node1

 

接下来部署 ceph osd, 现在推荐使用 ceph-volume lvm 来管理磁盘。所有安装的时候 ,就需要准备一个 lv 出来。为了测试 bluestore 的 block.db 和 block.wal, 我们来做三个lv 分别用于单 osd 。

 

$ pv create /dev/sdb

  Physical volume "/dev/sdb" successfully created.

$ vgcreate  ceph-pool/dev/sdb

  Volume group "ceph-pool" successfully created

$ lvcreate -n osd0.wal -L1G ceph-pool

  Logical volume "osd0.wal" created.

$ lvcreate -n osd0.db -L1G ceph-pool

  Logical volume "osd0.db" created.

$ lvcreate -n osd0 -l100%FREE ceph-pool

  Logical volume "osd0" created.

 

接下来,就可以创建 OSD 了。

ceph-deploy  osdcreate \

    --dataceph-pool/osd0 \

    --block-dbceph-pool/osd0.db \

    --block-walceph-pool/osd0.wal \

    --bluestorenode1

 

这样,一个最小的集群就建好了

$ ceph -s

  cluster:

    id:    5b2f0020-fc24-44de-a6c9-a88efdc5074f

    health:HEALTH_OK

  services:

    mon: 1daemons, quorum node1

    mgr:node2(active)

    osd: 1 osds:1 up, 1 in

  data:

    pools:  0 pools, 0 pgs

    objects: 0objects, 0 bytes

  usage:   2048MB used, 37883 MB / 39931 MB avail

    pgs:

$ ls -alh/var/lib/ceph/osd/ceph-0/

total 52K

drwxrwxrwt. 2 ceph ceph340 Apr  4 16:27 .

drwxr-x---. 3 ceph ceph 20 Apr  4 16:27 ..

-rw-r--r--. 1 ceph ceph183 Apr  4 16:27 activate.monmap

lrwxrwxrwx. 1 ceph ceph 19 Apr  4 16:27 block -> /dev/ceph-pool/osd0

lrwxrwxrwx. 1 root root 23 Apr  4 16:27 block.db -> /dev/ceph-pool/osd0.wal

lrwxrwxrwx. 1 root root 23 Apr  4 16:27 block.wal -> /dev/ceph-pool/osd0.wa

-rw-r--r--. 1 ceph ceph  2 Apr  4 16:27 bluefs

-rw-r--r--. 1 ceph ceph 37 Apr  4 16:27 ceph_fsid

-rw-r--r--. 1 ceph ceph 37 Apr  4 16:27 fsid

-rw-------. 1 ceph ceph 55 Apr  4 16:27 keyring

-rw-r--r--. 1 ceph ceph  8 Apr  4 16:27 kv_backend

-rw-r--r--. 1 ceph ceph 21 Apr  4 16:27 magic

-rw-r--r--. 1 ceph ceph  4 Apr  4 16:27 mkfs_done

-rw-r--r--. 1 ceph ceph 41 Apr  4 16:27 osd_key

-rw-r--r--. 1 ceph ceph 24 Apr  4 16:27 path_block.db

-rw-r--r--. 1 ceph ceph  6 Apr  4 16:27 ready

-rw-r--r--. 1 ceph ceph 10 Apr  4 16:27 type

-rw-r--r--. 1 ceph ceph  2 Apr  4 16:27 whoami

 

bluestore& rocksdb & ceph-volume

 

ceph 的组件多采用插件的机制,包括后端存储,KV 数据库,磁盘管理等。各组件之间可以灵活的组合。

 

基于后端存储包括 filestore, kvstore,memstore 和新的 bluestore。 Ceph Luminous 引用了 bluestore 的存储类型,不依赖文件系统,直接管理物理磁盘,相比filestore, 在 io 写入的时候路径更短,也避免了二次写入的问题,性能会更加好。

 

KV 存储主要包括LevelDB, MemDB 和新的 RocksDB。RocksDB 是 Facebook 基于 LevelDB 开发的 key-value 数据,并对闪存(flash)有更友好的优化。

 

磁盘管理之前只有个 ceph-disk, 现在新引入了 ceph-volume。基于 lvm 来管理磁盘,并会逐渐废弃掉 ceph-disk。

 

其中比较有意思的是 RocksDB 的实现,RocksDB 原本只基于文件系统的。但是得益于它本身的灵活性,bluestore 实现了一套 RocksDB 的 Env 接口,还在BlueStore 上面实现了一套 BlueFS 的接口与BluestoreEnv 对接。使得 RocksDB 可以存储在 BlueStore 上面。

 

wal& db 的大小问题

 

在 ceph bluestore 的情况下,wal 是 RocksDB 的write-ahead log, 相当于之前的 journal 数据,db 是 RocksDB 的metadata 信息。在磁盘选择原则是 block.wal > block.db > block。当然所有的数据也可以放到同一块盘上。

 

默认情况下, wal 和 db 的大小分别是 512 MB 和 1GB, 包括Sage Weil 的 PPT 里面也是这样标明的注释1。现在没有一个好的理论值,好像和 ceph 本身承载的数据类型有关系。更多讨论可以参看注释2

 

值得注意的是,如果所有的数据都在单块盘上,那是没有必要指定 wal &db 的大小的。如果 wal & db 是在不同的盘上,由于 wal/db 一般都会分的比较小,是有满的可能性的。如果满了,这些数据会迁移到下一个快的盘上(wal - db - main)。所以最少不会因为数据满了,而造成无法写入注释3

 

使用bluestore 时的 osd 分区

 

如果是使用的 ceph-disk 管理磁盘,他会建立一个 100MB 的分区,来存放 keyring / whoami 这些信息,这和之前的逻辑是一样的。

 

如果使用 ceph-volume 管理磁盘,/var/lib/ceph/osd/ceph-0 分区会从tmpfs 挂载过来(也就是内存)

 

$ mount | grep osd

tmpfs on/var/lib/ceph/osd/ceph-0 type tmpfs (rw,relatime,seclabel)

$ ls -Alh/var/lib/ceph/osd/ceph-0

lrwxrwxrwx. 1 ceph ceph 19Apr  7 21:36 block -> /dev/ceph-pool/osd0

lrwxrwxrwx. 1 root root 22Apr  7 21:36 block.db -> /dev/ceph-pool/osd0.db

lrwxrwxrwx. 1 root root 23Apr  7 21:36 block.wal -> /dev/ceph-pool/osd0.wal

-rw-------. 1 ceph ceph 37Apr  7 21:36 ceph_fsid

-rw-------. 1 ceph ceph 37Apr  7 21:36 fsid

-rw-------. 1 ceph ceph 55Apr  7 21:36 keyring

-rw-------. 1 ceph ceph 6 Apr  7 21:36 ready

-rw-------. 1 ceph ceph 10Apr  7 21:36 type

-rw-------. 1 ceph ceph 2 Apr  7 21:36 whoami

 

至于目录中的这些文件则是从 bluestore 盘一开始的BDEV_LABEL_BLOCK_SIZE=4096位置读取过来的。通过以下命令,可以把所有的 label 打印出来:

$ ceph-bluestore-tool show-label --path /var/lib/ceph/osd/ceph-0

{

   "/var/lib/ceph/osd/ceph-0/block": {

      "osd_uuid": "c349b2ba-690f-4a36-b6f6-2cc0d0839f29",

       "size": 2147483648,

      "btime": "2018-04-04 10:22:25.216117",

       "description": "main",

       "bluefs": "1",

       "ceph_fsid": "14941be9-c327-4a17-8b86-be50ee2f962e",

      "kv_backend": "rocksdb",

       "magic": "ceph osd volumev026",

      "mkfs_done": "yes",

       "osd_key": "AQDgNsRaVtsRIBAA6pmOf7y2GBufyE83nHwVvg==",

       "ready": "ready",

       "whoami": "0"

    }

}

 

相关代码参看

•   ceph-volume activate

•   ceph-bluestore-tool prime-osd-dir

 

使用ceph-volume, 不管 store 使用的是 filestore 还是 bluestore, 都会把一些 tag 存在 lvm 上面, 可以使用以下命令查看(做了格式化处理)

 

$lvs -o lv_tags/dev/mapper/ceph--pool-osd

LV Tags

ceph.block_device=/dev/ceph-pool/osd

ceph.block_uuid=dRW0FO-KiVS-vBjB-PE42-RnSd-mL04-FRQmAz

ceph.cephx_lockbox_secret=

ceph.cluster_fsid=14941be9-c327-4a17-8b86-be50ee2f962e

ceph.cluster_name=ceph

ceph.crush_device_class=None

ceph.encrypted=0

ceph.osd_fsid=c349b2ba-690f-4a36-b6f6-2cc0d0839f29

ceph.osd_id=0

ceph.type=block

 

osd 的盘是如何挂载的

 

ceph 依赖systemd 来管理挂载,不需要配置 /etc/fstab 文件。在初始化 osd 的时候,ceph 会 enable 一个ceph-volume@x.service 服务,其中 x 的格式如 {lvm|simple}-{osd id}-{osduuid}, 这个服务会在系统的local-fs.target 组里面,当系统挂载本地盘的时候,会自动挂载上。

 

这个 ceph-volume@.service 定义如下:

$systemctl catceph-volume@lvm-0-b7b4fa98-d36e-430b-9789-a432a078292c

# /usr/lib/systemd/system/ceph-volume@.service

[Unit]

Description=Ceph Volumeactivation: %i

After=local-fs.target

Wants=local-fs.target

[Service]

Type=oneshot

KillMode=none

Environment=CEPH_VOLUME_TIMEOUT=10000

ExecStart=/bin/sh -c'timeout $CEPH_VOLUME_TIMEOUT /usr/sbin/ceph-volume-systemd %i'

TimeoutSec=0

[Install]

WantedBy=multi-user.target

 

可以看到, 他是把参数传递给了 ceph-volume-systemd 命令, 而这个命令又把参数解析后,传给了 ceph-volume命令,最后执行的命令是:

ceph-volume lvm trigger{osd id} {osd uuid]

 

需要ceph-volume-systemd 这个命令的原因应该是systemd只能传一个参数。

 

这个 trigger 会调用 ceph-volume lvm activate 命令,去准备相对应挂载及里面的数据初始化。

 

最后, ceph-volume lvm activate会调用 ceph-bluestore-toolpirme-osd-dir 命令来初始化里面的数据。

 

其他

 

cephosd purge

ceph Limunous 新加了一个 ceph osd purge 命令,很好用,可以一个命令,把某个 osd 相关的信息都清除掉。包括

•   osd

•   crush rule

•   auth key

ceph-disklvm

ceph-disk 应试不支持 lvm, 参见 :

http://tracker.ceph.com/issues/5461

不过 kolla 是否支持,可以验证下, 因为 kolla 的脚本里面不依赖 ceph-disk

 

参考链接

http://www.sysnote.org/2016/08/19/ceph-bluestore/

https://ceph.com/community/new-luminous-bluestore/

http://liyichao.github.io/posts/ceph-bluestore-%E5%9F%BA%E6%9C%AC%E5%8E%9F%E7%90%86.html

 

关于九州云99Cloud 

九州云(99Cloud.Inc)成立于2012年,是中国第一家从事OpenStack和相关开源服务的专业公司。公司成立六年,秉承“开源 · 赋能变革”的理念,已经从单一的OpenStack产品提供商,发展成为涵盖云核心、云运营、云运维和云安全等多个领域的开源软件和服务提供商。九州云已支持了国家电网、中国人民银行、中国银联、中国移动、中国电信、中国联通、中国资源卫星、中航信(航旅纵横)、eBay、国际陆港集团、中国人寿、万达信息、东风汽车、诺基亚等重量级客户。在2018年最新的Queen发行版排名中,九州云在核心模块贡献跃居全球第四,中国第二,其中在容器部署Kolla项目、NFV编排Tacker项目等重量级项目上贡献全球第一。

展开阅读全文

没有更多推荐了,返回首页