- 博客(6)
- 资源 (5)
- 收藏
- 关注
原创 ceph学习(3)——rbd-mirror双机热备
一.概述本文主要关注与rbd-mirror的使用以及使用过程中的遇到的问题二.环境准备ceph版本:14.2.16服务器:3台centos7服务器(ceph1,ceph2,ceph3)硬盘:每台服务器1块10GB以上硬盘做osd,分别搭建一个单副本集群测试环境。三.单向备份:将集群ceph1作为主集群,ceph2,ceph3作为从集群(备份集群),将主集群rbd存储池的所有镜像备份到从集群ceph2和ceph3的rbd存储池上1.分发配置以及密钥将集群ceph1的相关配置分发到集群ceph
2022-02-14 19:19:06 1412
转载 分布式存储Ceph之PG状态详解
1. PG介绍一,PG的复杂如下:在架构层次上,PG位于RADOS层的中间。 a. 往上负责接收和处理来自客户端的请求。 b. 往下负责将这些数据请求翻译为能够被本地对象存储所能理解的事务。 是组成存储池的基本单位,存储池中的很多特性,都是直接依托于PG实现的。 面向容灾域的备份策略使得一般而言的PG需要执行跨节点的分布式写,因此数据在不同节点之间的同步、恢复时的数据修复也都是依赖PG完成。2. PG状态表正常的PG状态是 100%的active + clean, 这表示所有的PG是可
2020-09-15 17:38:33 5613 2
原创 Ceph 集群在线迁移方案
一 环境准备1.1 场景介绍 最近收到一个需求,客户希望将运行了多年的ceph集群服务器全部更换掉,因为这些老服务器性能和容量都已经无法满足当前业务的需求,并希望在迁移到新服务器的过程中,业务不中断。在参考一些网上的方案后,选择了一个方案进行了测试,效果还不错,决定将测试过程记录下来,并且自己写了些自动化的脚本,希望以后迁移能够变得更轻松。1.2 环境介绍 本文测试环境为centos7,+ceph 14.2.0,主要使用RBD(块存储),暂不包含RGW,MDS。...
2020-05-11 23:38:33 3285 2
原创 ceph学习(2)——crush map 故障域划分
crush map是ceph集群最重要的组成部分之一,crush算法实现了ceph集群的去中心化,这也是它实现分布式的关键,简单来说,crush算法决定了客户端的数据写到哪,从哪读取客户需要的数据。今天重点讲crush map的使用,之后会单独写一篇来讨论crush map细节。接上篇https://blog.csdn.net/qq_33218245/article/details/97...
2019-11-29 17:37:34 6299
原创 ceph学习(故障恢复)——mon全部故障,从osd中恢复集群
在生产环境中,ceph集群要求最少配置3个MON,一般情况下很少出现3个MON同时挂掉的情况,但是也不排除出现这种情况的可能,如果集群中的所有MON都损坏了,是不是集群数据就丢失了呢?能不能恢复集群?当然是可以的,ceph中国的一位开发者写了一个工具,来对损坏的MON的数据进行重构,这个工具已经集成到了新版的ceph中,官网上也提供了一个重构的脚本,但是这个脚本似乎有点问题,网上也有一些相关...
2019-11-26 16:55:50 11474 5
bcache.ko(kernel-3.10.0-862.el7)
2021-01-29
bcache.ko(kernel-3.10.0-693.el7)
2021-01-29
ceph14.2.0安装包,arm架构麒麟系统
2020-05-11
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人