01-运维存储专题

学习背景

在这里插入图片描述
在这里插入图片描述

学习目标

在这里插入图片描述
在这里插入图片描述

Linux存储分层

在这里插入图片描述
在这里插入图片描述

存储分类

在这里插入图片描述
在这里插入图片描述

SAN

SAN的分类

在这里插入图片描述

IP-SAN之iscsi实现

在这里插入图片描述

导出端配置

yum install epel-release -y	  #没有安装epel源的,再次确认安装
yum install scsi-target-utils -y  # iscsi-target-utils软件包

在这里插入图片描述
在这里插入图片描述

rpm -qc scsi-target-utils.x86_64 0:1.0.55-4.el7   #查看该软件包配置文件所在地

在这里插入图片描述

dd if=/dev/zero of=/root/file1 bs=1M count=1000   #dd命令创建的一个模拟1T设备块

在这里插入图片描述
在这里插入图片描述

systemctl start tgtd
systemctl enable tgtd
lsof -i:3260

在这里插入图片描述

导入端配置

lsblk #查看当前磁盘分区状态
iscsiadm -m discovery -t sendtargets -p 192.168.230.204   #网络发现
iscsiadm -m node -l    #登录
lsblk  #再看

##格式化 挂载使用
mkfs.ext4 /dev/sdb  
mount /dev/sdb /mnt/
lsblk 
vim /etc/fstab  #写入fstab需注意,否则会导致系统无法正常启动

在这里插入图片描述
在这里插入图片描述

##相关命令
iscsiadm -m node -u  
iscsiadm -m node --op delete  #断开网络设备块连接,断开完需要重新发现才能登录

在这里插入图片描述

分布式存储

在这里插入图片描述

Glusterfs搭建

在这里插入图片描述
在这里插入图片描述

vim /etc/yum.repos.d/glusterfs.repo

[glusterfs]
name=glusterfs baseurl=https://buildlogs.centos.org/centos/7/storage/x86_64/gluster-4.1/ 
enabled=1 
gpgcheck=0 

在这里插入图片描述
在这里插入图片描述
可任意选择一台机子来牵头~
在这里插入图片描述
在这里插入图片描述

yum install glusterfs-server
systemctl start glusterd
systemctl enable glusterd
systemctl status glusterd

在这里插入图片描述

常见卷的模式

在这里插入图片描述
在这里插入图片描述

创建replica卷

在这里插入图片描述

 gluster volume create gv0 replica 4 storage1:/data/gv0/ storage2:/data/gv0/ storage3:/data/gv0/ storage4:/data/gv0/ force 

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

yum install glusterfs glusterfs-fuse -y

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

卷的删除

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

[root@storage1 ~]# gluster volume stop gv0
Stopping volume will make its data inaccessible. Do you want to continue? (y/n) y
volume stop: gv0: success
[root@storage1 ~]# gluster volume delete gv0
Deleting volume will erase all information about the volume. Do you want to continue? (y/n) y
volume delete: gv0: success
[root@storage1 ~]# gluster volume info
No volumes present
[root@storage1 ~]#

stripe模式(条带)

在这里插入图片描述

gluster volume create gv0 stripe 4 storage1:/data/gv0/ storage2:/data/gv0/ storage3:/data/gv0/ storage4:/data/gv0/ force

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

distributed模式

在这里插入图片描述
在这里插入图片描述

distributed-replica模式

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

做raid6

在这里插入图片描述
在这里插入图片描述
在线裁剪很危险,企业一般不使用!!!

在这里插入图片描述

ceph

在这里插入图片描述

ceph架构

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

配置yum源

在这里插入图片描述

yum install epel-release -y
vim /etc/yum.repos.d/ceph.repo
[ceph] 
name=ceph baseurl=http://mirrors.aliyun.com/ceph/rpm-mimic/el7/x86_64/ 
enabled=1 
gpgcheck=0 
priority=1

[ceph-noarch] 
name=cephnoarch baseurl=http://mirrors.aliyun.com/ceph/rpm-mimic/el7/noarch/ 
enabled=1 
gpgcheck=0 
priority=1

[ceph-source] 
name=Ceph source packages baseurl=http://mirrors.aliyun.com/ceph/rpm-mimic/el7/SRPMS 
enabled=1 
gpgcheck=0 
priority=1

在这里插入图片描述

#vim /etc/yum.repos.d/ceph.repo    #客户端也要加源
[localceph] 
name=localceph 
baseurl=file:///root/ceph_soft 
gpgcheck=0 
enabled=1

在这里插入图片描述
在这里插入图片描述

部署ceph

 yum install ceph-deploy   

在这里插入图片描述在这里插入图片描述
在这里插入图片描述

ceph-deploy new node1

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

yum install ceph ceph-radosgw -y
rpm -e --nodeps  xxxx   #卸载交叉环境依赖版本冲突,不要用yum卸载容易卸掉别人的依赖

在这里插入图片描述

ceph -v

在这里插入图片描述
在这里插入图片描述

yum install ceph-common -y

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

vim /etc/ceph/ceph.conf

在这里插入图片描述

ceph-deploy mon create-initial

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

[root@node1 ceph]# ceph-deploy --overwrite-conf admin node1 node2 node3

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

RADOS存取原理

在这里插入图片描述
在这里插入图片描述

创建pool

在这里插入图片描述

ceph osd pool create test_pool 128

ceph osd pool get test_pool pg_num


在这里插入图片描述

rados put newfstab /etc/fstab --pool=test_pool

rados -p test_pool ls

rados rm newfstab --pool=test_pool

在这里插入图片描述

vim ceph.conf

ceph-deploy  --overwrite-conf admin node1 node2 node3

systemctl restart ceph-mon.target

ceph osd pool delete test_pool test_pool --yes-i-really-really-mean-it

创建ceph文件存储

在这里插入图片描述

 ceph-deploy mds create node1 node2 node3

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

[root@node1 ceph]# ceph osd pool create cephfs_pool 128
pool 'cephfs_pool' created
[root@node1 ceph]# ceph osd pool create cephfs_metadata 64
pool 'cephfs_metadata' created
[root@node1 ceph]# ceph osd pool ls | grep cephfs
cephfs_pool
cephfs_metadata
[root@node1 ceph]# ceph fs new cephfs cephfs_metadata cephfs_pool
new fs with metadata pool 3 and data pool 2
[root@node1 ceph]# ceph fs ls
name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs_pool ]
[root@node1 ceph]# ceph mds stat
cephfs-1/1/1 up  {0=node3=up:active}, 2 up:standby
[root@node1 ceph]# cat /etc/ceph/ceph.client.admin.keyring
[client.admin]
        key = AQCHQvxjGRj4KhAAngftTBvMi+5pLBorOR8OkA==
        caps mds = "allow *"
        caps mgr = "allow *"
        caps mon = "allow *"
        caps osd = "allow *"

在这里插入图片描述

在这里插入图片描述

[root@client ceph]# mount -t ceph node1:6789:/ /mnt -o name=admin,secretfile=/etc/ceph/admin.key
[root@client ceph]# df -h | tail -1
192.168.230.221:6789:/   3.4G     0  3.4G    0% /mnt

删除ceph文件存储

在这里插入图片描述

在这里插入图片描述

systemctl stop ceph-mds.target

ceph fs rm cephfs --yes-i-really-mean-it

ceph osd pool delete cephfs_metadata cephfs_metadata --yes-i-really-really-mean-it

创建ceph块存储

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

块存储扩容与裁剪

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

ceph对象存储

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

且听风吟tmj

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值