存储/云计算
文章平均质量分 55
存储、云计算相关文章
wangyiyan212
这个作者很懒,什么都没留下…
展开
-
ceph-创建使用rule-ssd规则的存储池
luminous版本的ceph新增了一个功能crush class,这个功能又可以称为磁盘智能分组。因为这个功能就是根据磁盘类型自动的进行属性的关联,然后进行分类。无需手动修改crushmap,极大的减少了人为的操作。以前的操作有多麻烦可以看看:ceph crushmapceph中的每个osd设备都可以选择一个class类型与之关联,默认情况下,在创建osd的时候会自动识别设备类型,然后设置该设备为相应的类。通常有三种class类型:hdd,ssd,nvme。由于当前实验环境下没有ssd和nvme设备,原创 2022-04-07 17:49:12 · 4405 阅读 · 0 评论 -
ceph-volume源码分析(三)
上一篇文章我们找到了ceph-volume的函数入口,接下来我们先看下ceph_volume模块下main.py中的Volume,如下图所示:class Volume(object): _help = """ceph-volume: Deploy Ceph OSDs using different device technologies like lvm orphysical disks.Log Path: {log_path}Ceph Conf: {ceph_path}{sub_h原创 2022-01-06 08:35:16 · 1482 阅读 · 0 评论 -
ceph-volume源码分析(二)
第一篇文章对ceph-volume进行了一个基本介绍,从这篇文章开始,打算结合一些具体的操作分析代码流程和实现。 首先我们在cli查看ceph-volume命令,如下图所示:原创 2022-01-04 15:16:18 · 1511 阅读 · 0 评论 -
ceph-volume源码分析(一)
ceph-volume源码分析(一) 在接触ceph的过程中,用到了ceph-volume这个部署OSD的社区工具,就想着利用闲暇时间看下源码实现,一方面自己很久没有写过东西了,利用看源码的过程熟悉下python语言,同时学习下社区大佬的编程思路和风格。 废话不多说,先上官方介绍文档地址:[官方链接地址](https://docs.ceph.com/en/latest/man/8/ceph-volume/) 通过官方介绍文档我们可以看到ceph-volume是社区用来替代ceph-disk原创 2022-01-02 17:20:06 · 1101 阅读 · 0 评论 -
Ceph常用命令
容量统计rbd diff例子:如果要查看一个卷的使用统计信息,可以使用以下命令rbd diff volume |awk '{ SUM += $2 } END { print SUM/1024/1024 " MB" }'rbd durbdduimage01-prbd其中image01为卷名, -p rbd指定在rbd存储池下查询性能统计..................原创 2021-12-22 15:57:00 · 882 阅读 · 0 评论 -
SSD硬盘寿命估算
衡量固态硬盘寿命业内通常有两个指标,一个是DWPD(Drive Writes Per Day),另一个是TBW(Total Bytes Written),这两个数据指标在产品规格书里都会有写DWPD(Drive Writes Per Day):每日整盘写入次数,指在预期寿命内可每日完整写入SSD固态硬盘所有容量的次数。TBW(Terabytes Written):写入的兆兆字节,也有定义TBW为Total Bytes Written,指SSD在设计寿命里能承受的总写入数据量。TBW的定义和条件.原创 2021-12-17 09:54:59 · 4930 阅读 · 0 评论 -
iscsiadm命令基本用法
发现目标iscsiadm -m discovery -t sendtargets -p 192.168.1.1:3260-m discovery 指定模式为discovery-p 192.168.1.1:3260 指定目标ip和端口登入节点iscsiadm -m node –T iqn.1997-05.com.test:raid -p 192.168.1.1:3260 -l系统启动时自动登入iscsiadm -m node –T iqn.1997-05.com.test:raid -p 192.16原创 2021-12-01 11:15:29 · 12691 阅读 · 0 评论 -
CEPH 更换OSD故障硬盘
替换硬盘把 OSD 踢出集群ceph osd out osd.xx停止osd服务systemctl stop ceph-osd@xx删除OSDL版本之前#在monitor上操作ceph osd crush remove osd.xxceph auth del osd.xxceph osd rm osd.xxL版本开始ceph osd purge osd.xx --yes-i-really-mean-it卸载磁盘umount /var/lib/ceph/osd/ceph-xx .原创 2021-11-25 14:47:45 · 1078 阅读 · 0 评论 -
手动解决ceph中pg不平衡
ceph的crush算法是个好东西,能够实现对象读写位置的计算,诶,最大的问题是,pg分布怎么如此不均衡问题的出现在实际使用ceph的过程中,我们经常会遇到这样的问题,创建了pool之后,ceph osd df会看到这些pool的pg在osd上分布不均匀,甚至相差很大,尤其是像rbd-pool或者rgw-data这样的数据pool,相差十几几十个pg,在集群用到80%以上时会出现让我们十分头疼的问题,就是部分osd已经到了nearfull,但是部分osd只用了60%解决这个问题的有效办法就是在集转载 2021-09-14 16:13:31 · 2391 阅读 · 0 评论 -
配置FIO支持RBD测试
fio的rbd测试引擎可以很方便的对ceph rbd进行测试,在使用源码安装时配置步骤如下:1. 下载fio源码文件https://gitee.com/xasz1129/fio/releases2. 解压缩zip文件后进入到fio目录3. 运行./configure,输出如下:$ ./configure [...]Rados engine noRados Block Device engine no这个时候默认是不支持RBD的...原创 2021-07-20 14:14:59 · 1250 阅读 · 0 评论 -
日志文件系统工作原理
文件系统要解决的一个关键问题是怎样防止掉电或系统崩溃造成数据损坏,在此类意外事件中,导致文件系统损坏的根本原因在于写文件不是原子操作,因为写文件涉及的不仅仅是用户数据,还涉及元数据(metadata)包括 Superblock、inode bitmap、inode、data block bitmap等,所以写操作无法一步完成,如果其中任何一个步骤被打断,就会造成数据的不一致或损坏。举一个简化的例子,我们对一个文件进行写操作,要涉及以下步骤:从data block bitmap中分配一个数据块; 在in转载 2021-05-17 10:43:50 · 1444 阅读 · 1 评论