cephcsi使用之存储报错

当前版本

ceph version 15.2.16  octopus (stable)

1,创建池报错
在这里插入图片描述
方法1

#以下错
[ceph: root@ceph25 /]# ceph osd pool create kubernetes 64 64
Error ERANGE:  pg_num 64 size 3 would mean 939 total pgs, which exceeds max 750 (mon_max_pg_per_osd 250 * num_in_osds 3)

#解决方法
[root@ceph25 ~]# ceph config show-with-defaults osd.0 | grep mon_max_pg_per_osd
mon_max_pg_per_osd                 250                
                                                                                                                                                    
 #OSD 的最大 PG(默认为 250)设置为500
 ceph config set mon mon_max_pg_per_osd 500

方法2
自动缩放
在少于50个OSD的情况下也可以使用自动的方式。
每一个Pool都有一个pg_autoscale_mode参数,有三个值:
off:禁用自动缩放。
on:启用自动缩放。
warn:在应该调整PG数量时报警

对现有的pool启用自动缩放

在这里插入图片描述

ceph osd pool set <pool-name> pg_autoscale_mode <mode>
ceph osd pool set nfs-pools pg_autoscale_mode on

为了防止Pool中PG数量在数据多了以后再自动调整,可以提前指定一个大小。
ceph osd pool set mypool target_size_bytes 100T
[root@ceph1 ~]# ceph osd pool create test1 100 100
pool 'test1' created
[root@ceph ~]# ceph osd pool set test1 target_size_bytes 10G
set pool 7 target_size_bytes to 10G
[root@ceph ~]# ceph osd pool set test1  pg_autoscale_mode on
set pool 7 pg_autoscale_mode to on

查看一下状态:
在这里插入图片描述
查看自动缩放状态
需要启用mgr里的pg_autoscaler模块。

ceph mgr module enable pg_autoscaler
  • SIZE: 存储在Pool中的数据量。
  • TARGET SIZE: 指定的数据量。自动调整会根据SIZE与TARGET SIZE中大的值做计算。
    RATE:
  • RAW CAPACITY: 集群存储的总容量
  • TARGET RATIO: 与其他Pool的存储比率。如果同时指定了SIZE与TARGET RATIO,则TARGET RATIO优先。
    EFFECTIVE RATIO:
  • PG_NUM: 当前Pool中的PG数量。
  • NEW PG_NUM: 将要更改的值,将要变成PG_NUM。 只有在计算的PG数量与PG_NUM差异大于3倍是才会出现。
  • AUTOSCALE: pg_autoscale_mode的值。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值