Ceph分层存储系统部署

Ceph版本:14.2.22
操作系统:ubuntu 18.04

 

分层存储部署


创建分层结构

将数据存储池和缓存池建立分层结构

ceph osd tier add fs_data cache_pool

设置分层存储模式

ceph osd tier cache-mode cache_pool writeback

将客户端请求重定向到缓存池

ceph osd tier set-overlay fs_data cache_pool

fs_datacache_pool是两个副本池,副本数默认,PG数量都是为1。
 

缓存池参数配置

配置缓存池使用的目标查找算法

ceph osd pool set cache_pool hit_set_type bloom

配置缓存池使用的数据命中集合个数

ceph osd pool set cache_pool hit_set_count 1

配置缓存池使用的数据命中集合存在时间

ceph osd pool set cache_pool hit_set_period 3600

配置数据promote到缓存池时需要遍历数据命中集合个数

ceph osd pool set cache_pool min_read_recency_for_promote 1
ceph osd pool set cache_pool min_write_recency_for_promote 1

注:如果设置为0,表示始终都做promote。如果设置为1,表示遍历当前hit set。设置的个数要介于0到hitset总个数之间。

配置缓存池中能够存储object的最大数量

ceph osd pool set cache_pool target_max_objects 1000

配置存储池低速flush数据到数据存储池时被修改的数据容量占比

ceph osd pool set cache_pool cache_target_dirty_ratio 0.4

配置存储池高速flush数据到数据存储池时被修改的数据容量占比

ceph osd pool set cache_pool cache_target_dirty_high_ratio 0.6

配置存储池高速evict数据时被已经使用的数据容量占比

ceph osd pool set cache_pool cache_target_full_ratio 0.8

配置缓存池flush数据到数据存储池之前object在缓存池中存在的时间

ceph osd pool set cache_pool cache_min_flush_age 10

配置缓存池evict数据之前object在缓存池中存在的时间

ceph osd pool set cache_pool cache_min_evict_age 15

 

注意事项

1)以上所有参数都要配置,尤其是hit set的配置。hit set在计算flush/evict比例、object promote流程中扮演者很重要角色。

2)上述设置缓存池总容量时,既可以通过target_max_objects设置,也可以通过target_max_bytes设置;可以同时设置这两个参数,可以以只设置其中一个。如果设置target_max_objects,将根据object数量去计算占比。如果设置target_max_bytes,将根据数据使用字节数计算占比。如果同时设置,将分别计算占比,然后对比选择出最大占比。

3)默认情况下,单次处理单个PG中的object数量为10;生产环境发现这种情况下,flush和evict的速度会比较慢,导致缓存池会一直处于full状态,进而导致很多OSD只读不能写,出现slowops;可以根据实际操作调整缓存池OSD的参数:osd_pool_default_cache _max_evict_check_size;比如:ceph tell osd.* injectargs --osd_pool_default_cache_max_evict_check_size 100

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
ceph分布式存储平台是一种开源的、高性能的分布式存储系统。它可以提供高可靠性、高扩展性、高性能的存储服务。ceph部署需要以下几个步骤: 1、部署节点准备:ceph部署需要至少3台服务器作为存储节点,还需要1台管理节点。在准备部署节点时,需要确认节点的硬件配置是否符合要求,并且需要安装必要的软件和工具。 2、创建ceph集群:在管理节点上创建ceph集群,并配置好各个存储节点的IP地址和数据盘,以及存储池等相关参数。 3、安装ceph组件:在每个存储节点上分别安装ceph组件,如ceph-osd(对象存储守护进程)、ceph-mon(监视器守护进程)和ceph-mds(元数据服务器)等。 4、初始化ceph集群:在管理节点上使用ceph-deploy等工具初始化ceph集群,并且设置各个节点的角色和权限等参数。 5、扩展ceph集群:可以在ceph集群上动态添加新的存储节点,以增加存储容量和性能。 6、测试ceph集群:需要对ceph集群进行测试,以确保其能够正常运行和提供高可用性、高性能的存储服务。 在部署ceph分布式存储平台时,需要注意以下几点: 1、保证各个节点之间的网络连接稳定,以确保数据的传输和同步正常。 2、在存储节点和管理节点上及时进行升级和补丁更新,以确保系统的安全和稳定。 3、对于不同类型的数据,需要根据其特性来选择合适的存储池和存储策略,以提高数据访问效率和安全性。 综上所述,ceph分布式存储平台的部署需要仔细的计划和准备,并且需要根据实际应用需求灵活调整,以获得最佳的存储性能和可靠性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值