Ceph基于不同性能磁盘创建Pool

本文详细介绍了如何在Ceph环境中,根据SSD和SATA磁盘的不同性能,创建并配置存储池(Pool)。通过获取并修改crush map,创建ssd_pool和stat_pool,并设置存储规则,确保数据在SSD和SATA磁盘间合理分布。最后,验证了对象在各个资源池的分布情况。
摘要由CSDN通过智能技术生成

Ceph基于不同性能磁盘创建Pool


2017//11//10 恩松

本文介绍在使用ceph时,如何配置实现创建不同性能的pool,以用于不同的场景。

环境介绍

(ceph-mon)[root@node01 /]# ceph osd tree
ID WEIGHT   TYPE NAME              UP/DOWN REWEIGHT PRIMARY-AFFINITY 
-6  6.00000 root stat                                                
 9  1.00000     osd.9                   up  1.00000          1.00000 
10  1.00000     osd.10                  up  1.00000          1.00000 
11  1.00000     osd.11                  up  1.00000          1.00000 
12  1.00000     osd.12                  up  1.00000          1.00000 
13  1.00000     osd.13                  up  1.00000          1.00000 
14  1.00000     osd.14                  up  1.00000          1.00000 
-5  9.00000 root ssd                                                 
 0  1.00000     osd.0                   up  1.00000          1.00000 
 1  1.00000     osd.1                   up  1.00000          1.00000 
 2  1.00000     osd.2                   up  1.00000          1.00000 
 3  1.00000     osd.3                   up  1.00000          1.00000 
 4  1.00000     osd.4                   up  1.00000          1.00000 
 5  1.00000     osd.5                   up  1.00000          1.00000 
 6  1.00000     osd.6                   up  1.00000          1.00000 
 7  1.00000     osd.7                   up  1.00000          1.00000 
 8  1.00000     osd.8                   up  1.00000          1.00000 
-1 15.00000 root default                                             
-2  5.00000     host 172.21.196.11                                   
 0  1.00000         osd.0               up  1.00000          1.00000 
 2  1.00000         osd.2               up  1.00000          1.00000 
 4  1.00000         osd.4               up  1.00000          1.00000 
11  1.00000         osd.11              up  1.00000          1.00000 
13  1.00000         osd.13              up  1.00000          1.00000 
-3  5.00000     host 172.21.196.13                                   
 1  1.00000         osd.1               up  1.00000          1.00000 
 3  1.00000         osd.3               up  1.00000          1.00000 
 5  1.00000         osd.5               up  1.00000          1.00000 
10  1.00000         osd.10              up  1.00000          1.00000 
14  1.00000         osd.14              up  1.00000          1.00000 
-4  5.00000     host 172.21.196.12                                   
 6  1.00000         osd.6               up  1.00000          1.00000 
 7  1.00000         osd.7               up  1.00000          1.00000 
 8  1.00000         osd.8               up  1.00000          1.00000 
 9  1.00000         osd.9               up  1.00000          1.00000 
12  1.00000         osd.12              up  1.00000          1.00000 

这里是我已经配置好的osd信息,未配置之前是没有root stat,root ssd这2部分内容的,一共有15个osd,0–8是SSD磁盘,9–14是SATA磁盘。

获取crush map

(ceph-mon)[root@node01 /]# ceph osd getcrushmap -o crushmapgot 
got crush map from osdmap epoch 380

当前目录下会生成一个crushmapgot文件。

反编译crush map

(ceph-mon)[root@node01 /]#  crushtool -d crushmapgot -o decrushmap

当前目录下会生成一个decrushmap文件。

修改crush map


                
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值