ceph存储,gluster存储
仅学习测试
daydayup9527
这个作者很懒,什么都没留下…
展开
-
minio存储学习了解
学习笔记原创 2023-01-01 15:54:54 · 1296 阅读 · 0 评论 -
fastdfs配置解释
待深入了解原创 2022-12-19 22:44:35 · 800 阅读 · 0 评论 -
fastdfs安装使用
学习笔记原创 2022-12-19 22:42:57 · 429 阅读 · 0 评论 -
ceph多monitor实现高可用
组件:Ceph OSD:OSD守护进程,用于存储数据、数据恢复、数据回滚、平衡数据,并通过心跳程序向Monitor提供数据相关的监控信息。一个Ceph集群中至少需要两个OSD守护进程,这两个osd需要在两个物理服务器上,而不是在一台服务器上启动两个osd。Monitor:维护集群状态的映射信息,包括monmap,osdmap,pgmap;至少需要三个monitor来实现高可用MDS:存储Ceph文件系统的元数据。Managers:Ceph Manager守护程序(ceph-mgr)负责跟踪运行时指标原创 2022-04-14 23:45:41 · 1335 阅读 · 0 评论 -
glusterfs存储搭建初步测试
glusterfs存储搭建初步测试192.168.1.11-13,node1-3统一配置[root@node1 ~]# systemctl stop firewalld[root@node1 ~]# systemctl disable firewalld[root@node1 ~]# setenforce 0[root@node1 ~]# sed -i '/SELINUX=en/cSELINUX=disabled' /etc/selinux/config[root@node1 ~]# ln -原创 2022-04-04 20:31:57 · 1201 阅读 · 0 评论 -
glusterfs存储卷分布卷、复制卷测试
分布式卷创建分布卷默认模式 类似raid0,hash写入单个文件,节点上是单个文件[root@node1 ~]# gluster volume create test1 node1:/brick/test1volume create: test1: success: please start the volume to access data[root@node1 ~]# gluster volume info test1Bricks:Brick1: node1:/brick/test1[ro原创 2022-04-05 09:44:39 · 492 阅读 · 0 评论 -
Ceph维护命令了解
Ceph维护命令1、osdOSD全称Object Storage Device,主要是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD。使用rbd存储的前提,需要内核支持rbd[root@ms-adm ~]# modprobe rbd[root@ms-adm ~]# lsmod | grep rbd //查看内核是否支持rbd,没有就升级内核2、pool池pool是ceph存储数据时的逻辑分区,每个pool包含一定数量的PG,PG里的对象被映射到不同的O原创 2022-04-15 21:29:57 · 684 阅读 · 0 评论
分享