磁阵及LVM

l磁阵及LVM
l了解磁阵并使用LVM对其进行管理
l磁阵的定义及作用
l磁阵raid类型
l常用磁阵设备及操作
lLVM(Logical Volume Manager)介绍
lLVM管理(结合实例)
 
 
l磁阵的定义及作用
l 廉价且具有冗余 ( 重复配置 ) 能力的 磁盘阵列, 以数组方式来作磁盘组,配合数据分散排列的设计,提升数据的安全性。磁盘阵列是由磁盘组成的一个容量巨大的磁盘组。
l 由于数据分散存储在各个磁盘中,这样在访问数据时减少磁盘 I/O 竞争,提高了数据传输率;
l 由于采取了数据容错机制,对于某个磁盘硬件故障可以通过校验数据进行恢复,如 Raid5 的奇偶校验,另外甚至是磁盘的相互镜像备份,如 Raid1 ,提高了安全性
l 磁阵 raid 类型

l Raid0
l 将多个磁盘合并成一个大磁盘,不具备冗余,并行 I/O ,速度最快;存取数据时,以磁盘个数进行分段,并行同时写入这次磁盘,所以速度最快;由于没有冗余,若某磁盘损坏将导致所有数据无法使用。   
 
                                                       
l
l 1 、将磁盘先分成等量的区块,文件写入时,该文件会依据块的大小切割好,之后依次写入各个磁盘中,比如有 2 个磁盘,当 100M 的文件写入时,那么每块磁盘写入 50M
l 2 、越多块磁盘组成的 RAID0 性能将越好,因为每块磁盘只负责文件数据的一部分(文件大小 / 磁盘数),同时磁盘总容量也相应的增加了;
l 3 、存在数据风险,若其中某块磁盘损毁,那么文件数据将缺失一部分,该文件就挂了,由于所有文件都如此存储,加入某块磁盘挂了,那么 RAID 上的所有数据将丢失;
l 4 、如果使用不同容量磁盘组成 RAID0 ,数据依次写入,那么小容量的磁盘用完后,剩余的数据将写入大容量磁盘的多余空间中,这样性能将下降。
l
l Raid1
l 两组相同的磁盘系统互为映像,某块磁盘的损坏将不影响使用,最安全但速度不高;在主备磁盘上同时存放数据,当主盘故障时备盘代替工作;磁盘利用率只有 50% ,利用率低下,成本最高;
l
l 1 、若不以相同磁盘来组成,那么总容量将以最小的磁盘为准
l 2 、数据写入 RAID 时分别写入各个磁盘中,因此写入性能将变得很差,加入使用了磁盘整列卡,则由其来完成复制工作而非系统 I/O ,这样性能还 OK ,但如果是使用软件磁盘阵列(有操作系统仿真 RAID ),性能将很差;
l 3 、由于使用的相同组磁盘进行全量的备份,所以硬件消耗较严重,实际大小只用了总容量的一半;
l
lRaid10Raid01
l 结合了 raid0 raid1 的标准而成,优点是拥有了 raid0 的速度和 raid1 的可靠性,但磁盘利用率低下
l 1 RAID01 将磁盘组成 RAID0 ,再将 RAID0 组成 RAID1;
l 2 RAID10 将磁盘组成 RAID1 ,在将 RAD1 组成 RAID0
l
l Raid3
l 将数据条块化分布于不同的硬盘上,使用简单的奇偶校验(同 raid2 的区别),并用单块磁盘存放奇偶校验信息。如果一块磁盘失效,奇偶盘及其他数据盘可以重新产生数据;如果奇偶盘失效则不影响数据使用。
l
l Raid5
l 不单独指定的奇偶盘,而是把数据和相对应的奇偶校验信息存储到组成 RAID5 的各个磁盘上,并且奇偶校验信息和相对应的数据分别存储于不同的磁盘上。当 RAID5 的一个磁盘数据发生损坏后,利用剩下的数据和相应的奇偶校验信息去恢复被损坏的数据。
l
l 1 、至少 3 块磁盘组成,写入的模式类似于 RAID0 ,但在每次写入过程中,将在每个磁盘上加入校验记录,其会记录其他磁盘的备份数据,当有磁盘损毁时候进行恢复;例如有 3 块磁盘 ABC 组成 raid5 ,所有盘的同一位置的块组成一个条带,在写入数据时就写入到该条带的 3 个块中,其中 1 个块存放了校验数据,其作用是,通过 AB\BC\AC 上的校验码来推算出另外块上的数据,那么 raid 由所有的条带组成,而每个条带都有 1 个校验块,这样所有的校验块加起来就要耗尽 1 块磁盘的容量,故 Raid5 的真正使用的磁盘数量为: n-1 ,实际可用容量为:总容量*( n-1 );
l 2 、读取性能还 OK ,于 RAID0 差不多,但写入时由于存在生成校验记录的计算过程可能导致性能下降,如果使用了磁盘整列卡还 OK ,但若是软件磁盘阵列(耗费 CPU 来完成校验记录的计算),那么性能无法保障;
l 3 、热备盘相当于在 Raid 中做了个备份了,如 raid 里其中 1 块硬盘坏了是允许的并可以修改,但如果 2 块以上或更多盘坏了则不行,但若有了热备盘就会代替相应坏盘;
l 常用磁阵设备及操作
l 结合我们的测试环境来了解一下磁阵同单板的连接方式(光纤连接):
l
l 举例常用的 OceanStor S3900 系列,操作流程如下(参见文档 
l
l 执行完 OcenStor 的操作配置后,检查单板同磁阵的连接状态, root 用户登录单板,在目录 /sys/class/ fc_host 中,其中有 hostx 的目录,进入可查看到以 ”port_” 开头的几个文件,如下:
l port_id
l port_name ( 光纤口名称,内容同 fabric_name )
l port_state (状态为 Online 表示成功)
l port_type
l ATAE 背板上有 2 块卡就会有 2 host* 的目录 ,所以我们在 fc_host 目录下会看到 host1 host2
l
l 执行命令 lsscsi fdisk -l 可查看到映射到单板上显示的物理磁盘,如下:
l linux :~ # lsscsi
l [0:0:0:0]    disk    SEAGATE  ST973402SS       S229  -      
l [0:0:1:0]    disk    SEAGATE  ST973402SS       S229  -      
l [0:1:0:0]    disk    LSILOGIC Logical Volume   3000  /dev/ sda
l [5:0:0:0]    disk    up       updisk           1     /dev/ sdb
l [5:0:0:1]    disk    up       updisk           1     /dev/ sdc
l [5:0:0:2]    disk    up       updisk           1     /dev/ sdd
l [5:0:0:3]    disk    up       updisk           1     /dev/ sde
l [5:0:0:4]    disk    up       updisk           1     /dev/ sdf
l 其中 sdb sdf 就是在 oceanstor 上划分的各个 LUN 映射到单板上所产生的
l
l 在通过 USM 的“注册主机”安装过程中来安装 UltraPath 软件,安装完后 rpm – qa | grep UltraPath 检查确认
l 至此,磁阵同单板设备的连接已 OK
 
 
lLVM介绍
l 全称 Logical Volume Manager (逻辑盘卷管理),在使用 linux 系统时常会遇到不知道如何正确的划分分区大小,在一些分区空间耗尽时不知如何扩展,或者即使扩展也需重启硬件导致影响到系统运行,而 LVM 就是可方便灵活的扩展压缩分区并且在系统运行情况使其生效。
l 一种磁盘分区管理机制,是建立在硬盘和分区之上的逻辑概念,可灵活有效管理磁盘分区,可将多个磁盘分区整合为一个逻辑卷组( VG ),又可在逻辑卷组中划分多个逻辑卷 (LV) ,并在 LV 上创建文件系统;也可调整逻辑卷组的大小,并给卷组根据业务需要重新命名,如 vgora (存放所有数据库系统表空间对应的逻辑卷)
l
l 名词说明
l PV (物理卷,即硬盘分区,如上述的 sdb - sdf
l VG (卷组,可由 1 或多个 pv 所组成)
l LV (逻辑卷,基于某个卷组进行创建, LV 上可建文件系统)
l PE physicalextent ,物理卷上可被 LVM 寻址的最小基本单位)
l LE logicalextent ,逻辑卷上可被 LVM 寻址的最小基本单位)
l PE LE 是相同的且一一对应,对应关   系图如下:
l 从上可看出, VG 可由多个 PV 组成,而 PV 中的 PE LV 中的 LE 一一进行对应
l
l 磁盘分区、卷组、逻辑卷和文件系统 的逻辑关系如下图:
l LVM 管理(结合实例)
l 在讲述 LVM 管理前先结合 U09 版本的安装说一下如何进行规划和操作
l 要对 LVM 进行管理,首先检查 LVM 软件是否安装,通常通过 USM 自动化安装即可,命令 rpm – qa|grep lvm 检查确认
l
l lvm 创建过程,流程如下:
l
l 1 pvcreate /dev/ sda    整个磁盘创建物理卷
l        pvcreate /dev/sdb1   某个磁盘分区上创建物理卷
l        pvscan    物理卷扫描
l 2 vgcreate vgora /dev/ sda     在磁盘 sda 上创建卷组 vgora
l        vgextend vgora /dev/sdb1   添加磁盘分区 sdb1 到卷组 vgora
l        vgreduce vgora /dev/sdb1   删除磁盘分区 sdb1
l        vgscan   卷组扫描
l         vgdisplay   查看卷组详细信息
l 3 lvcreate -L 0.1G -n lvspfile /dev/ vgora   
l        卷组 vgora 上创建 lvspfile
l        lvremove /dev/ vgora / lvspfile    删除 lvspfile
l        lvextend -L 12G /dev/ vgora / lvspfile    lvspfile 大小扩展至 12G
l        lvextend -L +1G /dev/ vgora / lvspfile    lvspfile 大小增加 1G
l        lvdisplay    查看逻辑卷详细信息
l
l 4 mknod /dev/raw/raw1 c 162 1   创建裸设备文件
l        raw /dev/raw/raw1   /dev/ vgora / lvspfile   
l        创建裸设备文件同 LV 的链接
l 5 mkfs -t reiserfs /dev/ vgora / lv_archive    创建文件系统
l        mount -t reiserfs /dev/ vgora / lv_archive   /home/root/direct 挂载文件系统
l        unmount /dev/ vgora / lv_archive   卸载文件系统
l 上述步骤 2 4 ,我们通常通过 USM 来完成, USM 在划分时配置如下图:
l
l 上图中创建 vg 分别为 vgora vggroup ,对应 pv 分别为 /dev/ sdb ,/dev/ sdc , PE 大小为 4M
l 注意:同 1 个卷组中所有 PV 上的 PE 大小必须相同
l
l 创建 LV vgora-lvspfile , 大小为 30M ,文件系统类型为 RAW RAW 设备文件名为 /dev/raw/raw1 ,才用手动 bind
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值