自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 资源 (1)
  • 收藏
  • 关注

转载 磁盘阵列 RAID 技术原理详解 图文

导读:RAID一页通整理所有RAID技术、原理并配合相应RAID图解,告诉你什么是RAID,RAID技术的分类,RAID原理,各级别RAID图解,软件RAID及硬件RAID的实现方法。序 序RAID一页通整理所有RAID技术、原理并配合相应RAID图解,给所有存储新人提供一个迅速学习、理解RAID技术的网上资源库,本文将持续更新,欢迎大家补充及投稿。中国存储网一如既往为广大

2017-11-16 10:15:08 2258

转载 ceph学习之PG

PG的计算公式:整个集群PG的计算公式Total PGs = ((Total_number_of_OSD * 100) / max_replication_count)  每个POOL中PG的计算公式:Total PGs = (Total_number_of_OSD * 100) / max_replication_count / pool_count

2017-11-15 12:26:07 978

转载 ceph学习之pool

pool是ceph存储数据时的逻辑分区,它起到namespace的作用。其他分布式存储系统,比如Mogilefs、Couchbase、Swift都有pool的概念,只是叫法不同。每个pool包含一定数量的PG,PG里的对象被映射到不同的OSD上,因此pool是分布到整个集群的。除了隔离数据,我们也可以分别对不同的POOL设置不同的优化策略,比如副本数、数据清洗次数、数据块及对象大小等。

2017-11-15 12:24:40 1663

原创 如何在ceph中找出存放的数据

ceph的数据管理始于ceph client的写操作,鉴于ceph使用多副本及强一致性策略来保证数据的安全性和完整性,一个写请求的数据会首先被写入到primary OSD上去,然后primary OSD会进一步将数据复制到secondary和其它tertiary OSD上去并一直等待他们的完成通知,然后再将最终的完成确认发送给client。这篇文章主要从ceph数据管理这个方面入手,通过具体的实例介

2017-11-10 21:00:03 2761

转载 Ceph-智能分布CRUSH之Object与PG与OSD

Ceph CRUSH算法(Controlled Replication Under ScalableHashing)一种基于为随机控制数据分布、复制的算法。 基本原理: 存储设备通常支持条带化以增加存储系统的吞吐量并提升性能,条带化最常见的方式就是做raid.如raid0. 数据在阵列中的硬盘上是以条带的形式分布的,条带化是指数据在陈列中所有硬盘中的存储过程。文件中的数据被分割成小块的数据段在

2017-11-10 18:09:42 929

转载 删除osd的正确方式

最近邮件列表又有关于删除osd正确姿势的讨论,按照官网的步骤走的话,在 标记osd为out 和 从crushmap删除osd 这两步都会触发数据再平衡。根据邮件列表的指示,总结删除osd的正确姿势如下: ceph osd crush reweight osd.X 0.0 … wait for rebalance to finish…. ceph osd out X servic

2017-11-10 16:19:18 1872

原创 ceph遇到问题汇总

1、Monitor clock skew detected [root@admin-node my-cluster]# ceph -s cluster a7f64266-0894-4f1e-a635-d0aeaca0e993 health HEALTH_ERR 16 pgs are stuck inactive for more t

2017-11-09 17:41:29 2514

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除