ceph配置文件

本文详细探讨了Ceph存储系统的配置,涵盖了资源池管理、Bluestore组件、OSD性能与恢复、Monitor节点的Paxos协议、网络设置、Bluefs、libaio参数、NVMe选项、RBD及PG和Rados的相关配置,旨在帮助读者深入理解Ceph的运行机制和优化策略。
摘要由CSDN通过智能技术生成

资源池管理模块

#控制是否可以复用osd创建资源池。0、不支持复用,1、支持复用
$osd_reuse = 0;
#系统剩余内存水线,单位:%
$system_free_memory_limit = 60;
#osd内存使用水线,单位:KB
$osd_memory_limit = 2097152;
#bluestore_cache_other使用水线,单位:byte
$blu_cache_other_limit = 419430400;

bluestore相关:

bluestore_block_size	设置块大小,以分区建立osd时需要修改
bluestore_cache_size		单个bluestore实例,配置cache大小
bluestore_block_wal_size = 10737418240		bluestore wal大小
bluestore_block_db_size = 10737418240	bluestore db大小
bluestore_cache_trim_interval 		bluestore trim周期
bluestore_cache_trim_max_skip_pinned	最大trim值
bluestore_prefer_deferred_size_hdd	控制io落wal分区io大小

osd rocksdb相关

rocksdb_cache_shard_bits 重庆现场修改为4后,导致磁盘读很大

osd相关:

osd_failsafe_full_ratio = 0.98	超过此限制op直接被抛弃
osd_recovery_max_chunk	设置恢复过程中最大的块设备
osd_op_history_slow_op_size = 100	slow op保存的历史记录数量
osd_op_history_slow_op_threshold = 1	当一个op超过多长时间,则记录上报			
osd_peering_wq_threads=20		设置peer线程数量
osd_peering_wq_batch_size=10 	设置peer队列长度
osd_crush_update_on_start = false	默认不创建host		
osd_heartbeat_use_min_delay_socket = true
osd_heartbeat_interval = 5
osd_heartbeat_grace = 17 	
osd_client_message_size_cap	OSD messenge大小
mon_osd_max_split_count			最大增加的pg数量,如果想一次扩增很多pg,可用该方法
osd性能
osd max write size	OSD一次可写入的
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值