![](https://img-blog.csdnimg.cn/78e95f2af6f34f7592d64d80adcb1d76.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
ceph_内功心法
文章平均质量分 55
调优
小Eason哥
喜欢分享技术的点点滴滴
展开
-
将 Ceph 扩展到十亿个对象甚至更多
因此,对于大于 bluestore_min_alloc_size_hdd 的对象,默认值似乎是最佳的,如果您打算减少 bluestore_min_alloc_size_hdd 参数,较小的对象还需要更多调查。当我们的集群中的存储容量用完时,我们别无选择,只能删除存储在桶中的旧大对象,而我们有数百万个这样的对象。我们最初是从 S3 API 的 DELETE 方法开始的,但我们很快意识到它不适用于存储桶删除,因为必须先删除存储桶中的所有对象,然后才能删除存储桶本身。这证明了 Ceph 集群的可扩展性和健壮性。原创 2023-01-04 21:01:31 · 415 阅读 · 0 评论 -
ESX 的 Ceph iSCSI GW 调整设置- ESX 的 Ceph iSCSI 网关设置
max_data_area_mb 选项控制每个映像可用于在 iSCSI 目标和 Ceph 集群之间传递 SCSI 命令数据的内存量(以兆字节为单位)。注意:使用 RHEL 7.5 及更早版本的内核时,会为每个 LUN 分配 max_data_area_mb MB。但是需要确保 max_data_area_mb(如果可用的话global_max_data_area_mb)足够高以cmdsn_depth执行命令数量。最佳情况下,这将与 ESX 将发送到 LUN 的命令数量乘以这些命令的 I/O 大小一样大。原创 2023-01-03 21:00:16 · 385 阅读 · 0 评论 -
使用 fio 方式测试 ceph 性能
1.使用FIO测试和评估ceph性能的正确方法如下。IOPS 是每秒 I/OS 数。原创 2023-01-03 21:06:50 · 406 阅读 · 0 评论 -
Ceph _backfill and recovery 之间的不同以及 peering理解
在 Ceph 中,有两种方法可以在集群内的 OSD 之间同步数据,recovery和backfill。虽然这两种方法都实现了相同的最终目标,但在这两个过程中存在细微差别,如下所述。我们强烈建议在生产中实施之前在测试环境中测试这些选项,以便您了解它们在生产中的行为方式。注意:状态一致并不代表它们都是最新的内容。** 为什么访问在期间被阻止recovery,而不是在期间backfill?原创 2023-01-03 21:23:14 · 776 阅读 · 0 评论 -
PG的状态有哪些
(4)Unclean:PG所包含的object没有达到指定的副本数量,比如一个PG没在工作,另一个PG在工作,object没有复制到另外一个PG中。我们知道由于pg的引进,我们只要追踪pg的状态即可,因此pg在集群中是存在多种状态的,pg的状态也决定着当前集群数据的健康状态。(2)inactive:正在等待具有最新数据的OSD出现,即当前具有最新数据的pg不在工作中,不能正常处理来自客户端的读写请求。(5)Peering:PG所在的OSD对PG中的对象的状态达成一个共识(维持对象一致性)。原创 2022-12-30 11:01:26 · 688 阅读 · 0 评论 -
Ceph-计算PG数
如果您有超过 50 个 OSD,我们建议每个 OSD 大约有 50-100 个归置组,以平衡资源使用、数据持久性和分布。您还需要考虑您可能在集群中使用的池的数量,因为每个池也会创建归置组。然后,您应该检查结果是否符合您设计 Ceph 集群的方式,以最大化数据持久性、数据分布和最小化资源使用。对于具有 200 个 OSD 和池大小为 3 个副本的集群,您可以按如下方式估算 PG 的数量。原创 2022-12-30 10:57:19 · 890 阅读 · 0 评论 -
ceph_业务优先与重均衡恢复优先设置
osd_recovery_max_single_start: 一个PG Recovery对应的Object个数。osd_recovery_sleep: 出队列后先Sleep一段时间,拉长两个Recovery的时间间隔。osd_max_backfills : 每个OSD上面控制backfill同时恢复的PG数目。osd_recovery_max_active: 控制同时recovery恢复的请求数目。原创 2022-12-28 15:50:29 · 435 阅读 · 0 评论