分布式文件系统
文章平均质量分 79
uj_mosquito
这个作者很懒,什么都没留下…
展开
-
GlusterFS基础知识
一、什么是GlusterFS glusterfs是一个横向扩展的分布式文件系统,就是把多台异构的存储服务器的存储空间整合起来给用户提供统一的命名空间。用户访问存储资源的方式有很多,可以通过NFS,SMB,HTTP协议等访问,还可以通过gluster本身提供的客户端访问。二、典型部署拓扑图三、概念和算法1、Trusted Storage Pool•翻译 2014-11-12 10:30:02 · 4449 阅读 · 0 评论 -
Ceph配置参数(三)
Ceph配置参数(一)Ceph配置参数(二)8、MONITOR CONFIG REFERENCEhttp://ceph.com/docs/master/rados/configuration/mon-config-ref/ 客户端在读写数据前,都比去和monitor取得联系,获得cluster map,结合CRUSH算法计算得到对象的位置。(1原创 2014-12-11 19:25:39 · 4295 阅读 · 1 评论 -
CephFS环境搭建(二)
《CephFS环境搭建(一)》介绍了如何简单搭建一个单Mon,MDS的Cephfs并导出使用,这里深入一步建立三个池,SSD和SATA分开存放在不同的池,建立多Mon,多MDS,结合纠删码,cache分层,建立一个比较健全的cephfs。原创 2014-12-25 13:58:19 · 4000 阅读 · 1 评论 -
Ceph配置参数(二)
Ceph配置参数(一)6、KEYVALUESTORE CONFIG REFERENCEhttp://ceph.com/docs/master/rados/configuration/keyvaluestore-config-ref/KeyValueStore is an alternative OSD backend compared to FileStore. Curre原创 2014-12-11 09:02:54 · 5846 阅读 · 0 评论 -
CephFS环境搭建(一)
一、搭建环境操作系统:ubuntu 14ceph版本:ceph-0.88单个千兆网卡OSD数:16 *3T硬盘节点:172.10.3.59 osd:6个;172.10.3.60 osd:10个,mon:1个,mds1个注:没有使用apt(除一些必要依赖以外,也没有用ceph-deploy,之前用过这次想换个方法,用ceph-deploy比较便捷,方法可以在官网上找到)原创 2014-12-05 13:48:46 · 2837 阅读 · 0 评论 -
Ceph多Mon 多mds
1、当前状态2、在172.10.2.172(node2)再添加一个mon(mon.node2)ssh node2vim /etc/ceph/ceph.conf 添加mon.node2的相关配置ceph-authtool /tmp/ceph.mon.keyring --import-keyring /etc/ceph/ceph.cl原创 2014-12-17 17:15:24 · 4061 阅读 · 2 评论 -
Ceph基础概述
原文地址:http://docs.ceph.com/docs/master/architecture/一、存储数据 ceph存储集群从ceph客户端获取数据,客户端可以是ceph块存储设备,ceph对象存储,ceph文件系统或者你用librados自己实现的一个客户端。文件以对象的形式存储在对象存储设备中。Ceph OSD Daemons处理读写操作。翻译 2014-12-02 17:39:26 · 6439 阅读 · 0 评论 -
GlusterFS预防脑裂机制
脑裂简单来说就是两个jied原创 2014-11-13 17:47:20 · 4012 阅读 · 0 评论 -
GlusterFS环境搭建
环境:CentOS7.0 开发模式安装1、tar -zxvf glusterfs-3.6.0.tar.gz2、./configure3、make && make install4、sudo vim /etc/glusterfs/glusterfsd.volvolume bricktype storage/posix # POSIX FS translatoropti原创 2014-11-18 13:55:02 · 2804 阅读 · 0 评论 -
GlusterFS数据恢复机制AFR
一、数据恢复机制 首先,huifushuj原创 2014-11-13 11:27:55 · 3859 阅读 · 0 评论 -
Ceph配置参数(一)
1、POOL, PG AND CRUSH CONFIG REFERENCEhttp://docs.ceph.com/docs/master/rados/configuration/pool-pg-config-ref/所属配置段:【global】格式:osd pool default pg num = 250每个存储池最大pg数:mon max pool pg num同一个原创 2014-12-09 18:49:25 · 10401 阅读 · 1 评论