ceph更换磁盘不改变引起大量数据迁移

一、需求

新更换后的磁盘,需满足如下要求(根本是为了保持pg分布情况不变,避免其他无关osd上的pg重新计算分布):

  • 保持ID不变
  • 系统crushmap不变

二、所用工具

  • ceph-disk
  • ceph

三、配置方法

3.1 初始化配置文件
[root@node0 ]$ cat /etc/ceph/init.conf

[global]
	osd_journal_size = 30720	# 30GB,根据实际情况调整
3.2 磁盘分区及格式化(有时候需要先执行ceph-disk zap )
[root@node0 ]$ sudo ceph-disk zap  /dev/sdX
[root@node0 ]$ sudo ceph-disk prepare --cluster init  /dev/sdX [journal location]
3.3 恢复原损坏磁盘相关参数

挂载初始化后的磁盘到本地目录/mnt:

[root@node0 ]$ sudo mount /dev/sdX1 /mnt
[root@node0 ]$ cd /mnt
3.3.1 设置 ID (保持OSD ID不变)

[root@node0 ]$ echo ${ID} | sudo tee whoami

3.3.2 设置 keyring (保持keyring不变)

[root@node0 ]$ ceph auth get-or-create osd.${ID} | sudo tee keyring

3.3.3 设置 UUID (保持原OSD的uuid不变)

[root@node0 ]$ ceph osd dump | grep ^osd.${ID} | awk '{print $NF}' | sudo tee fsid

3.3.4 设置集群fsid(保持集群fsid不变)

[root@node0 ]$ ceph-conf --lookup fsid | sudo tee ceph_fsid

3.3.5 激活磁盘
[root@node0 ]$ cd
[root@node0 ]$ sudo umount /mnt
[root@node0 ]$ sudo ceph-disk activate  --mark-init none  /dev/sdX1
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Ceph是一个可靠的、数据自动重均衡、自动恢复的SDS(软件定义存储)分布式存储系统,功能主要有三大块:块存储、对象存储、文件系统。Ceph不但是提供了统一存储,并且同时还充分利用了客户端的计算能力,在存储每一个数据时,都会通过计算得出该数据存储的位置,尽量将数据分布均衡,同时由于Ceph的设计,采用了CRUSH算法、HASH环等方法,使得它不存在传统的单点故障的问题,且随着规模的扩大性能并不会受到影响。不管是私有云还是公有云,随着云架构的发展,Ceph 成为了OpenStack、Proxmox标配的后端存储,不光如此,就连目前最火的容器编排 Kubernetes 持久存储也都支持 Ceph ,让 Ceph 成为当前主流的存储系统,而对 Ceph 存储的学习也就变的刻不容缓。 该课程属于比较基础的 Ceph 存储课程,旨在让大家能快速上手对 Ceph 集群的部署以及操作,主要讲解以下几个方面: 1.     架构的介绍2.     集群的多种部署方式3.     块存储部署,客户端使用及快照、克隆和镜像4.     对象存储的部署及简单使用5.     Ceph FS 文件系统的部署、客户端使用及导出为NFS6.     集群的操作和管理,包括服务,集群扩展,缩减和集群维护7.     Ceph 基础知识的介绍,包括集群map,PG和身份验证8.     Ceph 集群的监控

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值