存储方式集合

1.存储类型

1.1DAS 直接附加存储存储设备通过数据总线连接到主板

优势:速度快
劣势: 不便于共享
常见磁盘接口:
SCSI接口
320M/s
SATA接口
6G/s
SAS接口
6G/s
M.2
PCI-E

1.2NAS 网络附加存储

基于文件系统的共享
通过NFS协议、CIFS协议将存储空间进行共享
实现方式:
专业存储设备
NFS服务器
在这里插入图片描述

1.3SAN 存储区域网络

基于块设备的共享
实现方式:
专业的存储设备
SAN类型:
FC SAN
光纤网络存储
IP SAN
以太网络存储
在这里插入图片描述
在这里插入图片描述

2.glusterfs分布式文件系统

2.1分布式文件系统

适用于海量数据, 增加数据处理速度
构建分布式文件系统:
hadoop, hdfs 【大数据】
glusterfs 【云平台】
ceph
华为
FusionStorage

2.1.1gluster特性

开源的
容量达到PB级、服务器的最多达到千台
提升数据读写速度、高用性
无元数据metadata的架构, 采用弹性hash定位数据
可以廉价的pc server上构建

2.1.2gluster结构

brick: 真实的存储空间,表现为磁盘挂载点
volume:虚拟的存储空间,用于前端业务挂载使用
在这里插入图片描述

2.1.3gluster集群部署

关闭防火墙、SELinux、时间同步、主机名解析
部署SSH免密
配置gluster软件仓库
在集群节点中安装gluster服务端软件、启动glusterd服务
安装gluster客户端软件
创建gluster集群

3.ceph

Ceph是一个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。
目前已得到众多云计算厂商的支持并被广泛应用。

3.1特点

高性能
采用CRUSH算法实现数据均衡分布
支持上千存储节点,支持TB到PB级的数据
高可用性
高可扩展性
特性丰富
支持三种存储接口:块存储、文件系统存储、对象存储
支持多种语言驱动

3.2ceph提供的存储接口

ceph是统一的分布式文件系统
同时提供三种接口:
文件系统存储 cephFS, 依赖于MDS
块级别的存储 RBD
对象存储,RGW 每个文件被称为一个对象,每个文件有一个唯一的访问地址,快速访问;适用于非结构化数据(图片、视图、音频、动画)

3.3ceph的核心组件

在这里插入图片描述

Mon
作为ceph存储的访问入口
负责集群管理维护操作

OSD
实际负责数据读写,真实的存储设备

PG
OSD的分组,简化数据对象、OSD的管理

MDS
元数据服务,为文件系统存储提供元数据的管理

cephFS
文件系统存储

RBD
块存储

RadosGW
对象存储

3.4cephIO算法流程

在这里插入图片描述
File用户需要读写的文件。File->Object映射:
ino (File的元数据,File的唯一id)。
ono(File切分产生的某个object的序号,默认以4M切分一个块大小)。
oid(object id: ino + ono)。

Object是RADOS需要的对象。Ceph指定一个静态hash函数计算oid的值,将oid映射成一个近似均匀分布的伪随机值,然后和mask按位相与,得到pgid。Object->PG映射:
hash(oid) & mask-> pgid 。
mask = PG总数m(m为2的整数幂)-1 。

PG(Placement Group),用途是对object的存储进行组织和位置映射, (类似于redis cluster里面的slot的概念) 一个PG里面会有很多object。采用CRUSH算法,将pgid代入其中,然后得到一组OSD。PG->OSD映射:
CRUSH(pgid)->(osd1,osd2,osd3) 。

3.5ceph-mimic版本集群部署

四台虚拟机
192.168.183.10 node01 ceph集群节点/ceph-deploy /dev/sdb
192.168.183.11 node02 ceph集群节点 /dev/sdb
192.168.183.12 node03 ceph集群节点 /dev/sdb
192.168.183.13 app 业务服务器

配置免密、时间同步、主机名解析
所有节点配置ceph软件仓库

在node1上安装ceph-deploy工具
创建集群目录
创建ceph集群
ceph.conf
集群配置文件
ceph.mon.keyring
ceph monitor认证的令牌
ceph-deploy-ceph.log
ceph-deploy日志

所有节点安装ceph相关软件

在客户端安装ceph-common软件

编辑node1配置文件、添加public network配置
monitor初始化,即将ceph-node01配置为monitor
将配置信息同步到ceph集群所有节点
为避免monitor成为单点故障,将ceph-node02/node03添加为monitor服务

创建ceph mgr
ceph自L版本后,添加Ceph Manager Daemon,简称ceph-mgr
该组件的出现主要是为了缓解ceph-monitor的压力,分担了moniotr的工作,例如插件管理等,以更好的管理集群
添加多个mgr, 避免单点故障

创建OSD(数据盘)
初始化磁盘,清空磁盘数据
将磁盘创建为osd

添加dashboard插件
查看mgr运行的主节点
启用dashboard插件
创建dashboard需要的证书
设置dashboard访问地址
重启dashboard插件
设置用户名、密码
访问webUI

3.6文件系统存储

1、在ceph集群中部署MDS
2、创建存储池
3、创建文件系统存储
4、业务服务器挂载使用cephfs
4.1 将认证的令牌导出,拷贝到业务服务器
4.2 业务服务器挂载使用ceph
5、删除文件系统存储
5.1 业务服务器取消挂载
5.2 修改ceph.conf,添加允许删除的配置;同步配置文件
5.3 停掉所有集群节点的mds服务
5.4 删除文件系统
5.5 删除文件系统对应的存储池

3.7块存储

1、将ceph的配置同步到业务服务器
2、创建存储池、初始化
3、创建卷
4、映射块设备
5、使用ceph的块设备存储数据
6、扩容
7、缩容
8、删除块存储

3.8对象存储

1、创建rgw服务
2、安装s3cmd测试工具
3、生成连接对象存储需要的AK、SK
4、创建.s3cfg配置文件,指定对象存储网关的连接信息
5、创建桶
6、测试文件上传、下载

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值