ceph
文章平均质量分 74
好记忆不如烂笔头abc
Oracle GoldenGate认证,超15年电信、金融、医疗、政府、教育等数据库运维经验,擅长oracle数据库高可用技术RAC/ADG以及跨平台跨版本数据库各种方法最短时间大数据量迁移升级:
oracle各版本之间:从9i->10g->11g->12c,19c,21c
sqlserver各版本之间:从2000->2008->2012->2014->2016->2017->2019
db2->oracle,oracle->postgresql等
展开
-
k8s结合ceph rbd、cephfs实现数据的持久化和共享
k8s结合ceph rbd、cephfs实现数据的持久化和共享转载 2023-01-09 14:51:06 · 1005 阅读 · 0 评论 -
擦除旧的ceph osd盘,重新做osd
擦除旧的ceph osd盘,重新做osd原创 2023-01-04 15:31:52 · 1039 阅读 · 0 评论 -
ceph s3 rgw配置
ceph s3 rgw配置原创 2022-11-04 12:34:56 · 775 阅读 · 0 评论 -
ceph rdma协议的集群总是报daemons have recently crashed
ceph rdma协议的集群总是报daemons have recently crashed转载 2022-10-21 16:22:03 · 348 阅读 · 0 评论 -
ceph配置IB内部集群网络
ceph配置IB内部集群网络原创 2022-10-21 15:13:42 · 1838 阅读 · 0 评论 -
如何使用wipefs命令擦除磁盘上的签名
每个磁盘和分区上都有某种签名和元数据/魔术字符串。你可以使用wipefs命令查看分区表签名/元数据/魔术字符串。wipefs命令可以擦除文件系统,RAID或分区表签名/元数据。转载 2022-10-20 21:48:17 · 372 阅读 · 0 评论 -
将前面删除的osd磁盘,重新初始化并重新加入到ceph集群当中
ceph 旧OSD 节点 格式化 数据,加入新 ceph集群_ameng734086045的博客-CSDN博客_ceph 格式化osd转载 2022-10-20 13:00:38 · 2200 阅读 · 0 评论 -
Ceph使用---块设备、RGW、CephFS初步使用
Ceph使用---块设备、RGW、CephFS初步使用转载 2022-10-11 12:00:51 · 1275 阅读 · 0 评论 -
七、Ceph之对象存储RadosGW使用
七、Ceph之对象存储RadosGW使用转载 2022-09-29 13:56:02 · 1115 阅读 · 0 评论 -
五、Ceph之RBD存储使用
五、Ceph之RBD存储使用转载 2022-09-29 13:53:38 · 2845 阅读 · 0 评论 -
离线安装cephadm
离线安装ceph转载 2022-09-14 12:27:59 · 1534 阅读 · 1 评论 -
ceph(rbd、cephfs,rgw)磁盘挂载详解
客户端内核要求1:RBD方式挂载2:cephfs 挂载3:对象文件上传下载###########################客户端内核要求##############################1:升级client端内核操作系统使用CentOS6.6,因为系统已经包含xfs的支持可以直接使用不需要再次编译。由于CentOS6.5系统的内核为2.6.32,因此要关闭硬盘的写入缓存,若高于此版本不需要关闭。#hdparm -W 0 /dev/sdb 02:升级系统内核转载 2022-02-19 22:25:35 · 3647 阅读 · 0 评论 -
4种cephfs扩容方案
建立完善的cephfs的扩容方案,满足cephfs用户数据存储空间在各种场景下的扩容需求。目前扩容只涉及到用户的数据存储,元数据部分因为空间使用率较低所以不需要考虑扩容。现有cephfs用户存储模型目前单个用户会对应一个ceph集群里面的多个Dir目录,每个Dir目录底层会关联到两个pool,其中metadata_pool用来存储元数据,data_pool用来存储数据。单集群扩容方案通过filelayout进行扩容基本原理每个文件都有filelayout的xattr属性,其中包含转载 2022-02-18 21:11:34 · 1039 阅读 · 0 评论 -
Ceph之osd扩容和换盘
Ceph之osd扩容和换盘目录一、osd扩容 1.1 osd横向扩容(scale out) 1.2 osd纵向扩容(scale up) 1.2.1 清理磁盘数据 1.2.2 加入新的osd 1.2.3 确认ods已扩容 1.3 ceph osd数据重新分布 1.3.1 临时关闭rebalance 1.3.2 开启rebalance 二、osd缩容 2.1 剔除osd节点 一、osd扩容1.1 osd横向扩容(scale out转载 2022-02-18 21:02:33 · 2747 阅读 · 0 评论 -
CEPH集群安装、扩容、OSD故障恢复
CEPH是一个开源的项目,它是软件定义的、同一的存储解决方案。CEPH是一个可大规模扩展、高性能并且无单点故障的分布式存储系统。从一开始它就运行在通用的商用的硬件上,具有高度的可伸缩性,容量可扩展至EB界别,甚至更大CEPH架构1、相关名词解释RADOS:Reliable Autonomic Distributed Object Store(可靠的,自主的,分布式的对象存储)。在 ceph 中这个名词经常出现,有时会以 R 表示 RADOS。实际上这个词仅仅是对 ceph 的一个修饰词,并不代表转载 2022-02-18 20:59:05 · 1515 阅读 · 0 评论 -
Ceph中的PG和PGP的关系
【前言】ceph创建存储池需要pg数和pgp数的两个参数,在前面我们介绍了ceph的pg,那么pgp和pg有什么关系呢?PG (Placement Group),pg是一个虚拟的概念,用于存放object,PGP(Placement Group for Placement purpose),相当于是pg存放的一种osd排列组合。举个例子:假设集群有3个osd,即osd1,osd2,osd3,副本数为2,如果pgp=1,那么pg存放的osd的组合就有一种,可能是[osd1,osd2],那么所有的pg主转载 2022-02-18 20:47:12 · 1888 阅读 · 0 评论