自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(606)
  • 收藏
  • 关注

原创 日志内容和cephadm

上面是ceph18的cephadm的操作感觉日志路径改不了了,空间不够就单独一个盘bootstrap的时候,加上 --log-to-file 就会自动开启所有的日志开关两者关系可以理解为:tell config set;config set。

2026-01-29 22:33:35 615

原创 rbd-nbd

rbd-nbd:将 Ceph 的RBD 镜像(pool/image)通过 Linux映射成客户端本机块设备/dev/nbdX。映射后,上层业务可把它当“本地磁盘”使用:mount、LVM、数据库、虚拟化等。Quincy(17)把 OSD 调度默认切到 mClock QoS,核心目标是降低恢复/回填对业务 IO 的扰动,云块场景收益最直接。CephReef(18)补齐 RBD 分层客户端加密,更利于多租户与合规;同时 Dashboard/集中日志/监控架构升级,显著提升运营效率。Ceph。

2026-01-28 23:26:19 722

原创 ceph锁测试

发现用read only 映射的客户端,rbd status的时候,不会显示,并且也不可以写入。一个客户端用exclusive的方式映射,另外一个客户端以read only的方式可以映射吗。两个客户端都正常映射块设备,同时写入,判断是否会冲突,写入不同偏移的数据是否会冲突。一个客户端用exclusive的方式映射,另外一个客户端是否能映射。ClientB:生成已知数据并写入 offset=2GiB。ClientA:生成已知数据并写入 offset=0。但是可以读其他客户端写入的内容,并且校验是对的。

2026-01-28 21:29:40 129

原创 运维运维运维

挂载:/var/lib/ceph、/var/log/ceph、/var/run/ceph、/etc/ceph、/dev 与 LVM/udev 相关挂载是否正确、容量是否充足、权限/SELinux 是否正常日志链路:文件日志是否启用?journald 是否在用?容器日志去哪?crash/core dump 是否受控?编排一致性:以ceph orch为准,避免手工改导致漂移;升级/重建时配置不会丢宿主机底座:磁盘、网络、时间同步、ulimit、journal、容器存储空间。

2026-01-26 23:43:02 840

原创 ceph运维运维

以某一次的mon.node1.log为例,该日志文件是Ceph Monitor(mon)node1的日志文件,记录了 Ceph 集群中 Monitor 节点的运行状态、内部操作、客户端请求、数据库(RocksDB)的 compaction/flush 过程等关键信息。我们进入/var/lib/ceph//osd.0里面查看一下,可以看到有一个名为block的文件,这个文件实际上指向的是vdb,就是说osd的其他一些内容是存在系统盘vda里,用户存储在ceph的数据是放在vdb里。

2026-01-26 16:43:22 867

原创 ceph安装部署

ceph 安装部署安装ceph环境配置下载环境需要的依赖配置ssh环境。

2026-01-26 16:43:15 662

原创 rbd镜像的锁

官网的exclusive-lock 的线性化只保证 RBD 内部结构(object-map/journal 等)不被并发修改,并不等于能让两台机器同时挂载 ext4/xfs 并安全读写。文档也强调它是为了避免“非协调写入”我们两个客户端都执行了后可以通过一开始是node2获得锁,然后在node3上执行然后锁就到了node3如果想要设置为独占锁的话怎么办然后在另外一台客户端映射就会失败但是可以以可读的方式挂载但是通过可读方式映射的通过status查看看不到。

2026-01-25 23:40:47 135

原创 概括。。。。

下面给你一个面向、按“可用性 / 易维护性 / 监控与遥测 / 数据一致性 / 集群可靠性”归纳的最重要、且有明确官方依据的改进点(同时标注发生在哪个版本段:多数关键能力是在,你从 16 升到 18 会一并获得)。

2026-01-22 23:54:47 740

原创 增加依据。。

舍弃的内容(不是很重要,没必要)支持同主机部署多个守护进程。

2026-01-22 22:53:01 676

原创 一些变化ceph

Ceph16到Ceph18的改进–参考ceph官方文档中ceph17和ceph18的changes整理,默认ceph18继承了ceph17的改进点易用性Cephadm引入cephadm agent背景和问题在 Ceph 16 之前,集群部署与运维通常存在以下问题:部署工具割裂ceph-deploy、ceph-ansible、手工部署并存运维方式不统一,人员依赖强服务生命周期管理能力弱新增/删除 OSD、RGW、MDS 多依赖人工难以支撑频繁扩缩容。

2026-01-22 16:16:12 805

原创 ceph16-18差异

若你希望把它放在 Ceph18 里,也可以写成 “CephFS/运维工具链与恢复流程持续增强(含对异常会话/元数据膨胀的处置)”,例如 v18.2.1 提到 MDS 会驱逐不推进 request tids 的客户端以避免会话元数据膨胀导致 MDS 只读。fast-diff + whole object(inexact) 在少数情况下可能导致 diff/export 结果不正确,影响。(背景/范围/变更清单/升级建议/风险与回滚/验证用例),我也可以直接按模板输出一个可直接贴到评审系统的版本。

2026-01-21 23:11:42 792

原创 ceph的osd

可以:一个盘作为 WAL,一个盘作为 DB,多个盘作为数据盘;DB/WAL 盘是共享的,通过 LVM 切分给多个 OSD;这是 Bluestore + HDD + NVMe 场景下的标准、推荐部署方式。按你现有磁盘容量算 DB/WAL 应该切多大判断是否需要拆 WAL,还是只拆 DB 就够给你一份“最优但不过度复杂”的 OSD Spec你只需要告诉我每块盘的容量和类型。

2026-01-06 20:53:37 783

原创 openeuler22.3镜像包

openeuler镜像包。

2026-01-06 18:59:10 86

原创 register镜像包

【代码】........

2025-12-29 17:16:35 291

原创 blob是啥

Onode: 代表一个 Ceph 对象(如Extent: 逻辑段,表示对象内某个偏移量(Offset)到长度(Length)的区间。Blob物理存储单元的抽象。它代表磁盘上的一组块,是 BlueStore 执行**压缩(Compression)和校验(Checksum)**的最小独立边界。简单类比:如果 Onode 是“一本书”,Extent 是“书页的页码”,那么Blob 就是“装订在一起的一叠纸”。这叠纸不仅存了文字(数据),边缘还盖了防伪印章(Checksum)。你说得对,

2025-12-28 23:02:17 1187

原创 bluestore

空间回收(GC)是如何发生的?旧 extents 什么时候能释放为什么不能立刻释放BlueStore 如何保证“既安全又不爆盘”“那磁盘会不会越来越碎、越来越满?如果你愿意,我可以继续进入路线 A · 第 4 关(空间回收与 GC)。非常好,这一关会把你前面所有“安全但看起来很浪费”的疑问一次性收束。路线 A · 第 4 关 = BlueStore 为什么不会把磁盘写爆。目标:让你清楚哪些空间能回收、什么时候能回收、谁来回收、为什么不能立刻回收。

2025-12-28 16:33:49 767

原创 ceph修改

krbd:内核块设备 + 内核 libceph 发包librbd:用户态库 + librados 发包(QEMU 常用)但二者的对象映射/CRUSH/复制语义一致。

2025-12-28 16:31:49 684

原创 file_to_extents详解和buffer的作用

这是一个非常重要的工程权衡尽量少 → 减少 IO 请求数顺序读写 → OSD 友好允许离散 → 精确表达拼接关系这是一个典型的“物理连续 + 逻辑离散” 的设计。我要对哪个对象、读/写哪一段这段数据在用户 buffer 里的位置映射条带化决定了:👉对象内顺序 ≠ 文件顺序👉必须显式记录 buffer 重排规则用CephFS / RBD 的真实 layout再给你一个例子或者直接带你看librados / objecter 是如何消费这些 extents 的,把整个 IO 流程串起来。

2025-12-27 10:04:06 593

原创 ceph心跳机制

是 MON 的“紧急刹车”,当在线 OSD 太少时,禁止一切可能导致 PG 大规模迁移或结构变化的自动决策。帮你判断这个值在你当前 OSD 数量下是否合理或结合你某次真实故障(比如“掉了一半节点”)推演Ceph 实际会怎么反应总 OSD 数、当前 up/down 情况、主要跑 RBD 还是 CephFS。下面按“机制—路径—参数—典型现象—调优要点”的顺序,把Ceph 的心跳(liveness)机制OSD ↔ OSD(数据面故障检测的主力)OSD ↔ MON(控制面汇总判定与发布 OSDMap)

2025-12-25 22:22:16 1081

原创 ceph的参数

auth_client_required = noneauth_cluster_required = noneauth_service_required = noneauth_supported = nonebluefs_buffered_io = Truebluestore_cache_size_hdd = 838860800bluestore_cache_size_ssd = 838860800bluestore_cache_trim_max_skip_pinned = 256blues

2025-12-24 16:41:21 228

原创 ceph运维

Ceph 的“配置”是分散的、动态的、声明式的“状态 + 拓扑 + 生效参数 + 部署规则”的组合快照含义:RADOS object 的大小默认值:4MB作用层级👉 决定一个 RBD 对象 = 多大。

2025-12-22 22:16:12 984 1

原创 bugbug

Enabling client.admin keyring and conf on hosts with “admin” labelNon-zero exit code 5 from /usr/bin/docker run --rm --ipc=host --stop-signal=SIGTERM --ulimit nofile=1048576 --net=host --entrypoint /usr/bin/ceph --init -e CONTAINER_IMAGE=10.192.121.92:500

2025-12-22 14:21:28 167

原创 ceph中修改镜像大小

操作是否安全是否自动影响 df✅❌✅❌✅✅rbd resize ↓(在线)❌❌在上面操作中如果是缩容操作必须按照上面的操作进行,否则大概率会损坏文件系统👉 文件系统的关键数据已经被 RBD image 截断,👉 属于“块级数据丢失”,不是单纯的 FS 不一致。为什么“先缩 image”会直接导致 mount 失败?我们把你已经做过的事情,用时间线还原一下:1️⃣ 原始状态(正常)ext4 的 superblockjournal👉 都分布在 0~10G 之间。

2025-12-19 15:46:18 691

原创 ceph的ceph df detail中的max avail

【代码】ceph的ceph df detail中的max avail。

2025-12-19 14:02:10 126

原创 ceph中的rbd的稀疏写入

POOLS —— POOLS —— POOLS —— POOLS —— POOLS —— POOLS —— POOLS —— POOLS —ceph-data。

2025-12-19 11:27:03 442

原创 object->osd

objectset 是“一组并行参与条带化的 object 的集合”。它不是额外的对象不是元数据只是编号规则里的一个“分组概念”stripe 决定“怎么轮流写”,objectset 决定“什么时候换一批新的 object”。objectset 是为了防止 object 无限变大,同时让文件增长时自动扩散到更多 object。好处原因recovery 快object 小scrub 简单object 原子rebalance 平滑object 可迁移故障隔离。

2025-12-18 23:15:26 645 1

原创 ceph中的crush map

例如,将热数据存放于SSD中,而将冷数据放在HDD中。CRUSH rule就是定义了一种选择策略,Ceph中每个逻辑池都必须对应一条合法的rule才能正常工作。还是以上面链接中的crushmap为例,分析一下rule的具体含义。但是EC池不一样,在2+1的配比下前两份是数据块,最后一份是校验块,后两份rep位置一交换就会导致数据出错。新增的一步会在上述基础上,再以每个选中的host为起点,在host下选择1个OSD。举例来说,副本池中每份副本保存的是完全相同的数据,因此选择结果为。

2025-12-18 14:03:02 356

原创 一些问题ceph

一句话总结这三个过程的核心注意点标准答案:RBD 快照和克隆提供高效的数据复制能力,但前提是单写语义和一致的访问方式;在虚拟化场景下应优先使用 qemu+librbd,并在故障恢复时采用 clone 而非破坏性 rollback。✅实验报告“注意事项与分析”章节✅答辩用 Q&A 页✅Ceph RBD 实验 checklist 表格。

2025-12-16 22:13:35 677

原创 ceph中librbd模式下的qemu+librbd

QEMU 是虚拟机本身,通过系统包管理器安装;安装 ceph-common 后,QEMU 才能通过 librbd 使用 Ceph RBD;qemu + librbd = 用 Ceph RBD 作为虚拟机磁盘后端。一步一步从“空服务器”到“跑起来一台 Ceph-backed VM”或把你现在的环境(发行版 + 版本)告诉我,我给你精确到一条命令的安装清单。

2025-12-16 21:58:19 1108

原创 ceph内核模式 和 librbd 模式

如果我现在说:“这台机器一重启,磁盘还在,不用管任何后台进程”👉一定是内核模式如果我说:“这个磁盘必须有一个 rbd-nbd 进程一直活着”👉一定是 librbd 模式。

2025-12-15 22:01:24 316

原创 rbd快照

好的,我将把关于和的两个教程合并,创建一个带有详细命令、操作步骤和底层原理的。

2025-12-14 23:14:01 847

原创 rbd写入的数据流

一个 RBD write 返回成功,意味着:✔ Primary OSD 写成功✔ 所有 Replica OSD 写成功✔ WAL 已落盘✔ 元数据已持久化不是只是进了 cache。

2025-12-14 22:51:27 765

原创 RBD 常用命令速查表

好,那我。你可以,或者稍微改个封面就能交。

2025-12-14 22:50:54 538

原创 RBD 客户端挂载操作指南

对比项内核 rbdrbd-nbd运行层级内核态用户态性能⭐⭐⭐⭐⭐⭐⭐稳定性高较高调试灵活性一般高推荐场景生产实验 / 测试。

2025-12-14 22:50:42 841

原创 ceph一些细节处理

上面是一些配置文件,分别是密钥环,集群配置文件。

2025-12-14 21:33:55 207

原创 rbd创建特定的用户

!这是关于 Ceph 用户权限管理的非常重要且实用的内容。让我为你详细讲解:命令语法详解基本结构各部分权限说明A. Monitor (mon) 权限B. OSD 权限(最重要)C. Manager (mgr) 权限实际应用示例示例1:创建基础的 RBD 用户示例2:创建多池权限用户(如文档中的例子)示例3:创建只读监控用户完整的创建和使用流程步骤1:创建专用用户步骤2:验证用户权限步骤3:客户端使用配置权限验证和测试查看用户权限权限边界测试生产环境

2025-12-12 17:13:40 184

原创 rbd的操作

好的,我将为您总结一个详细的 Ceph RBD 存储管理教程,涵盖了从创建到删除的完整生命周期,并附带所有必要的命令,重点讲解文件删除和快照删除的底层机制。

2025-12-11 23:25:52 778

原创 创建第一个 Ceph 的 RBD 镜像并挂载到客户端

我按一步一步给你。

2025-12-08 22:29:07 532

原创 ceph基础知识

可以的。我按**“每个组件负责什么 → 它们如何协同工作 → 一次真实读写流程”**这个逻辑,帮你一次性串清楚。你可以直接当成复习版 ✅。

2025-12-08 22:22:36 777

原创 ceph部署完整版

简便方法:将命令的结果提供给 AI,直接获取对应版本的源配置命令。

2025-12-08 21:58:22 544

registry镜像包

registry镜像包

2026-01-06

openeuler22.3镜像包

openeuler22.3镜像包

2026-01-06

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除