Ceph
石兴稳
车轮塑造形体,技术改变生活
展开
-
Ceph 删除一个osd 盘报错 1 pg[1.4a7] degraded, 1 pg[1.4a7] undersized
[root@compute01 ~]# ceph -s cluster: id: 59458cbe-1086-40ee-8e6b-6ba8aea5c8e4 health: HEALTH_WARN Degraded data redundancy: 34/84820 objects degraded (0.040%), 1 pg[1.4a7] degraded, 1 pg[1.4a7] undersized services: mon: 3.原创 2020-10-19 16:27:20 · 946 阅读 · 0 评论 -
Ceph 集群扩容后 osd增加后修改pg数 方法
PGNumBase = (扩容后的总的OSD 个数 x 100)/副本数然后对这个基数进行 2 的次幂取整:找到一个数 N,使得 2N < PgNumBase < 2(N+1) 或者 2N == PgNumBase。如果是 2N == PgNumBase,那么取整后的值不变,PgNum = PgNumBase。如果是 2N < PgNumBase < 2(N+1) 当 PgNumBase <= ( 2N * 1.25 ) 时,PgNum = 2N。否则 PgNum.原创 2020-10-16 16:43:36 · 1252 阅读 · 0 评论 -
Ceph 不同的osd盘 创建不同类型的pool
###查看crushmap[root@ceph01 ~]# ceph osd getcrushmap -o crushmap.txt97[root@ceph01 ~]# crushtool -d crushmap.txt -o crushmap-decompile[root@ceph01 ~]# lsanaconda-ks.cfg crushmap-decompile crush...原创 2019-10-08 16:29:06 · 588 阅读 · 0 评论 -
Ceph_mimic 创建 files system
##创建 mds 节点ceph-deploy mds create ceph03###创建pool[root@ceph01 myceph]# ceph osd pool create cephfs_data 32pool 'cephfs_data' created[root@ceph01 myceph]# ceph osd pool create cephfs_metadata...原创 2019-09-27 17:18:04 · 174 阅读 · 0 评论 -
Ceph_mimic rgw 设置
####设置rgw 网关###设置rgw ,创建一个节点为网关节点[root@ceph01 myceph]# ceph-deploy rgw create ceph02[root@ceph01 myceph]# ceph -s cluster: id: 3a10f3b9-4469-44a7-817a-df5cdc8e65da health: HEALTH_O...原创 2019-09-27 15:03:03 · 703 阅读 · 0 评论 -
Ceph_mimic WARN 排查
###有两个警告[root@ceph01 myceph]# ceph -s cluster: id: 3a10f3b9-4469-44a7-817a-df5cdc8e65da health: HEALTH_WARN application not enabled on 2 pool(s) 1 pools have ...原创 2019-09-27 14:22:23 · 471 阅读 · 0 评论 -
Ceph mimic 操作手册记录
##查看ceph 使用量[root@ceph02 ~]# ceph dfGLOBAL: SIZE AVAIL RAW USED %RAW USED 400 GiB 392 GiB 8.1 GiB 2.01POOLS: NAME ID USED %USED ...原创 2019-09-27 11:08:22 · 214 阅读 · 1 评论 -
Ceph Mimic 安装记录
#!/bon/bashCeph 官网installed#1. 做无密码访问设置ssh-keygenfor i in {161..164};do ssh-copy-id -i .ssh/id_rsa.pub root@10.100.201.$i;done#2.源设置for i in {161..164};do ssh 10.100.201.$i "yum install -y https...原创 2019-09-26 16:49:01 · 296 阅读 · 0 评论 -
Ceph 集群容量操作阈值,禁止IO读写 的一次故障恢复报告
1.客户反映 平台虚拟机无法登陆。由于无法远程接入,去客户现场解决2.排查过程2.1 与客户交流中,得知客户有大量数据写入云平台。2.2 登陆平台底层,检查存储使用量如下:[root@compute01 ~]# ceph dfGLOBAL: SIZE AVAIL RAW USED %RAW USED 9895G 1668G...原创 2019-09-20 16:32:36 · 1056 阅读 · 1 评论 -
ceph 状态以mail方式定时发送报告
##ceph_report_email.py#! /usr/bin/env python# -*- coding: UTF-8 -*-import smtplibimport osfrom email.mime.text import MIMETextmailto_list=['xxxx@xxx.com'] #收件人(列表)mail_host="smtp.163.c...原创 2018-06-28 17:56:09 · 604 阅读 · 0 评论 -
删除osd盘
##删除osd.8盘,查看盘的状态[root@ceph24 ~]# lsblkNAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTsda 8:0 0 558.4G 0 disk└─sda1 8:1 0 558.4G 0 part /sdb 8:16 0 1.8T 0 disk├─sdb1 8:17 ...原创 2018-04-13 16:55:56 · 425 阅读 · 0 评论 -
阿里云 ceph yum 源
aliyun yum 源安装ceph集群[root@ceph16 yum.repos.d]# less ceph.repo[Ceph-SRPMS]name=Ceph SRPMS packagesbaseurl=https://mirrors.aliyun.com/ceph/rpm-jewel/el7/SRPMS/enabled=1gpgcheck=0type=rpm-md[Ceph-...原创 2018-03-22 17:39:12 · 7827 阅读 · 0 评论