ceph的ceph.conf文件配置

部署一套可供生产环境使用的ceph集群,考虑的问题比较多,特别是配置文件的配置量参数。这里记录调试后的配置参数:

[global]

fsid = 1235bE62-8ae1-difg-893a-892a675757c6

mon_initial_members = ceph-node01,ceph-node02,ceph-node03

mon_host = 192.168.170.11,192.168.170.12,192.168.170.13

auth_cluster_required = cephx

auth_service_required = cephx

auth_client_required = cephx

public_network = 192.168.170.0/22 #管理网络

cluster_network = 192.168.180.0/22 #集群网络

mon_pg_warn_max_per_osd = 1000 #每个osd上pg数量警告值,这个可以根据具体规划来设定

osd_pool_default_size = 3 #默认副本数为3

osd_pool_default_min_size = 2 #最小副本数为2,也就是只能坏一个

mon_osd_full_ratio = .85 #存储使用率达到85%将不再提供数据存储

mon_osd_nearfull_ratio = .70 #存储使用率达到70%集群将会warn状态

osd_deep_scrub_randomize_ratio = 0.01 #随机深度清洗概率,值越大,随机深度清洗概率越高,太高会影响业务

[osd]

osd_max_write_size = 1024 #默认90M,一次写操作最小值

osd_recovery_op_priority = 1 #默认为10, 1-63 osd修复操作的优先级, 。值越小,优先级越低

osd_recovery_max_active = 1 #限定每个osd上同时有多少个pg可以同时进行recover

osd_recovery_max_single_start = 1 # 和osd_recovery_max_active一起使用,要理解其含义。假设我们配置osd_recovery_max_single_start为1,osd_recovery_max_active为3,那么,这意味着OSD在某个时刻会为一个PG启动一个恢复操作,而且最多可以有三个恢复操作同时处于活动状态。

osd_recovery_max_chunk = 1048576 #默认为8388608, 设置恢复数据块的大小,以防网络阻塞

osd_recovery_threads = 1 #恢复数据所需的线程数

osd_max_backfills = 1 #集群故障后,最大backfill数为1,太大会影响业务

osd_scrub_begin_hour = 22 #清洗开始时间为晚上22点

osd_scrub_end_hour = 7 #清洗结束时间为早上7点

osd_recovery_sleep = 0 #默认为0,recovery的时间间隔,会影响recovery时常,如果recovery导致业务不正常,可以调大该值,增加时间间隔

osd_crush_update_on_start = false # 新加的osd会up/in,但并不会更新crushmap,prepare+active期间不会导致数据迁移

 

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值