ceph 存储 对比_K8S 存储的那点事儿:3 种 Ceph RBD 灾备方案对比

Ceph RBD 是 Ceph 的 RADOS 块设备。RBD 块存储是最稳定且最常用的存储类型,它类似磁盘可以被挂载。RBD 块设备具有快照、多副本、克隆和一致性等特点,数据以条带化的方式存储在 Ceph 集群的多个 OSD 中。本文的作者是滴滴基础平台技术专家李航,在这篇文章中,他将对 3 种 Ceph RBD 灾备方案展开介绍,并从它们的实现原理、操作命令、性能优缺等方面进行全面分析,为大家...
摘要由CSDN通过智能技术生成
63b59634cf1fb756a5a5a9833f39bf36.png

Ceph RBD 是 Ceph 的 RADOS 块设备。RBD 块存储是最稳定且最常用的存储类型,它类似磁盘可以被挂载。RBD 块设备具有快照、多副本、克隆和一致性等特点,数据以条带化的方式存储在 Ceph 集群的多个 OSD 中。本文的作者是滴滴基础平台技术专家李航,在这篇文章中,他将对 3 种 Ceph RBD 灾备方案展开介绍,并从它们的实现原理、操作命令、性能优缺等方面进行全面分析,为大家在生产中选择最佳灾备方案提供建议。

通过本文你将了解到:

  • 业内灾备方案
  • Snapshot
  • Ceph BackUp
  • RBD Mirroring
  • 方案对比
  • 总结

业内灾备方案

1. Snapshot

1.1 介绍

Cluster A&B 是独立的 Ceph 集群,通过 RBD 的 Snapshot 机制,在 Cluster A 端,针对 image 定期通过 RBD 创建 image 的 snap,然后通过rbd export-diff、rbd import-diff命令将 image 备份到 Cluster B 中。

1.2 原理

异步备份,基于 RBD 的snapshot机制。

1.3 命令和步骤

把 Cluster A 的 pool rbd 下面的 image testimage 异步备份到 Cluster B 的 pool rbd 下相同的 image 上:

  • 在 Cluster A/B 上创建 rbd/testimage;

rbd create -p rbd --size 10240 testimage

  • 在准备备份 image 前,暂停 Cluster A 端对 testimage 的 IO 操作,然后创建一个 Snapshot;

rbd snap create

  • 导出 Cluster A 端的 testimage 数据,不指定 from-snap;

rbd export-diff

  • copy 上一步中导出的文件到 Cluster B 中,并导入数据到 testimage 中。

rbd import-diff

后续需要周期性地暂停 Cluster A 端的 testimage 的 IO,然后创建 snapshot,通过rbd export-diff [--from-sna

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值