ceph
懵逼的运维弟弟
这个作者很懒,什么都没留下…
展开
-
ceph 1 pool(s) have non-power-of-two pg_num
执行ceph –s 发现集群状态并非ok,具体信息如下:[ceph-admin@ceph-node1 cluster]$ ceph -wcluster:id: a2e7e83b-8319-4d28-957f-27c8d7b62fa8health: HEALTH_WARN1 pool(s) have non-power-of-two pg_num由于是新配置的集群,只有一个pool$ sudo ceph osd lspools0 rbd,查看rbd pool的PGS$ sudo原创 2020-11-23 15:31:55 · 2540 阅读 · 0 评论 -
Ceph日常运维管理
Ceph日常运维管理集群监控管理集群整体运行状态[root@cephnode01 ~]# ceph -scluster:id: 8230a918-a0de-4784-9ab8-cd2a2b8671d0health: HEALTH_WARNapplication not enabled on 1 pool(s)services:mon: 3 daemons, quorum cephnode01,cephnode02,cephnode03 (age 27h)mgr: cephnode原创 2020-11-23 15:11:55 · 1713 阅读 · 2 评论 -
ceph方式部署三节点集群
一、部署准备本次使用Ceph版本:• Ceph:Nautilus(14.2.9)• Ceph-deploy:2.0.1IP地址 主机名 附加磁盘(OSD) 集群角色192.168.220.130 ceph-node1 mon,mgr,(主节点)(也可以再加一块磁盘 )192.168.220.131 ceph-node2 一块20G磁盘(/dev/sdb) osd1192.168.220.132 ceph-node3 一块20G磁盘(/dev/sdb) osd2本次测试节点信息:如果环境允原创 2020-11-19 15:22:26 · 2481 阅读 · 0 评论