ceph 存储 对比_K8S 存储的那点事儿:3 种 Ceph RBD 灾备方案对比

8f9b5c853a01871c70c10bd733d4bf1a.png

作者:李航(滴滴基础平台技术专家)

编辑:小君君(才云)

Ceph RBD 是 Ceph 的 RADOS 块设备。RBD 块存储是最稳定且最常用的存储类型,它类似磁盘可以被挂载。RBD 块设备具有快照、多副本、克隆和一致性等特点,数据以条带化的方式存储在 Ceph 集群的多个 OSD 中。本文的作者是滴滴基础平台技术专家李航,在这篇文章中,他将对 3 种 Ceph RBD 灾备方案展开介绍,并从它们的实现原理、操作命令、性能优缺等方面进行全面分析,为大家在生产中选择最佳灾备方案提供建议。

通过本文你将了解到:

  • 业内灾备方案

  • Snapshot

  • Ceph BackUp

  • RBD Mirroring

  • 方案对比

  • 总结

f33fda02038aefffa5ddba9627de1160.png

业内灾备方案

 1. Snapshot  

1.1 介绍

Cluster A&B 是独立的 Ceph 集群,通过 RBD 的 Snapshot 机制,在 Cluster A 端,针对 image 定期通过 RBD 创建 image 的 snap,然后通过rbd export-diffrbd import-diff命令将 image 备份到 Cluster B 中。

1.2 原理

异步备份,基于 RBD 的snapshot机制。

1.3 命令和步骤

把 Cluster A 的 pool rbd 下面的 image testimage 异步备份到 Cluster B 的 pool rbd 下相同的 image 上:

  • 在 Cluster A/B 上创建 rbd/testimage;

rbd create -p rbd --size 10240 testimage

  • 在准备备份 image 前,暂停 Cluster A 端对 testimage 的 IO 操作,然后创建一个 Snapshot;

rbd snap create

  • 导出 Cluster A 端的 testimage 数据,不指定 from-snap;

rbd export-diff

  • copy 上一步中导出的文件到 Cluster B 中,并导入数据到 testimage 中。

rbd import-diff

后续需要周期性地暂停 Cluster A 端的 testimage 的 IO,然后创建 snapshot,通过rbd export-diff [--from-snap ] 命令导出 incremental diff。

工程师们可以将差异数据文件 copy 到 Cluster B 上,然后通过命令rbd import-diff

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值