l磁阵及LVM
l了解磁阵并使用LVM对其进行管理
l磁阵的定义及作用
l磁阵raid类型
l常用磁阵设备及操作
lLVM(Logical Volume Manager)介绍
lLVM管理(结合实例)
l磁阵的定义及作用
l
廉价且具有冗余
(
重复配置
)
能力的
磁盘阵列,
以数组方式来作磁盘组,配合数据分散排列的设计,提升数据的安全性。磁盘阵列是由磁盘组成的一个容量巨大的磁盘组。
l
由于数据分散存储在各个磁盘中,这样在访问数据时减少磁盘
I/O
竞争,提高了数据传输率;
l
由于采取了数据容错机制,对于某个磁盘硬件故障可以通过校验数据进行恢复,如
Raid5
的奇偶校验,另外甚至是磁盘的相互镜像备份,如
Raid1
,提高了安全性
l
磁阵
raid
类型
l
Raid0
l
将多个磁盘合并成一个大磁盘,不具备冗余,并行
I/O
,速度最快;存取数据时,以磁盘个数进行分段,并行同时写入这次磁盘,所以速度最快;由于没有冗余,若某磁盘损坏将导致所有数据无法使用。
l
l
1
、将磁盘先分成等量的区块,文件写入时,该文件会依据块的大小切割好,之后依次写入各个磁盘中,比如有
2
个磁盘,当
100M
的文件写入时,那么每块磁盘写入
50M
;
l
2
、越多块磁盘组成的
RAID0
性能将越好,因为每块磁盘只负责文件数据的一部分(文件大小
/
磁盘数),同时磁盘总容量也相应的增加了;
l
3
、存在数据风险,若其中某块磁盘损毁,那么文件数据将缺失一部分,该文件就挂了,由于所有文件都如此存储,加入某块磁盘挂了,那么
RAID
上的所有数据将丢失;
l
4
、如果使用不同容量磁盘组成
RAID0
,数据依次写入,那么小容量的磁盘用完后,剩余的数据将写入大容量磁盘的多余空间中,这样性能将下降。
l
l
Raid1
l
两组相同的磁盘系统互为映像,某块磁盘的损坏将不影响使用,最安全但速度不高;在主备磁盘上同时存放数据,当主盘故障时备盘代替工作;磁盘利用率只有
50%
,利用率低下,成本最高;
l
l
1
、若不以相同磁盘来组成,那么总容量将以最小的磁盘为准
l
2
、数据写入
RAID
时分别写入各个磁盘中,因此写入性能将变得很差,加入使用了磁盘整列卡,则由其来完成复制工作而非系统
I/O
,这样性能还
OK
,但如果是使用软件磁盘阵列(有操作系统仿真
RAID
),性能将很差;
l
3
、由于使用的相同组磁盘进行全量的备份,所以硬件消耗较严重,实际大小只用了总容量的一半;
l
lRaid10与Raid01
l
结合了
raid0
和
raid1
的标准而成,优点是拥有了
raid0
的速度和
raid1
的可靠性,但磁盘利用率低下
l
1
、
RAID01
将磁盘组成
RAID0
,再将
RAID0
组成
RAID1;
l
2
、
RAID10
将磁盘组成
RAID1
,在将
RAD1
组成
RAID0
;
l
l
Raid3
l
将数据条块化分布于不同的硬盘上,使用简单的奇偶校验(同
raid2
的区别),并用单块磁盘存放奇偶校验信息。如果一块磁盘失效,奇偶盘及其他数据盘可以重新产生数据;如果奇偶盘失效则不影响数据使用。
l
l
Raid5
l
不单独指定的奇偶盘,而是把数据和相对应的奇偶校验信息存储到组成
RAID5
的各个磁盘上,并且奇偶校验信息和相对应的数据分别存储于不同的磁盘上。当
RAID5
的一个磁盘数据发生损坏后,利用剩下的数据和相应的奇偶校验信息去恢复被损坏的数据。
l
l
1
、至少
3
块磁盘组成,写入的模式类似于
RAID0
,但在每次写入过程中,将在每个磁盘上加入校验记录,其会记录其他磁盘的备份数据,当有磁盘损毁时候进行恢复;例如有
3
块磁盘
ABC
组成
raid5
,所有盘的同一位置的块组成一个条带,在写入数据时就写入到该条带的
3
个块中,其中
1
个块存放了校验数据,其作用是,通过
AB\BC\AC
上的校验码来推算出另外块上的数据,那么
raid
由所有的条带组成,而每个条带都有
1
个校验块,这样所有的校验块加起来就要耗尽
1
块磁盘的容量,故
Raid5
的真正使用的磁盘数量为:
n-1
,实际可用容量为:总容量*(
n-1
);
l
2
、读取性能还
OK
,于
RAID0
差不多,但写入时由于存在生成校验记录的计算过程可能导致性能下降,如果使用了磁盘整列卡还
OK
,但若是软件磁盘阵列(耗费
CPU
来完成校验记录的计算),那么性能无法保障;
l
3
、热备盘相当于在
Raid
中做了个备份了,如
raid
里其中
1
块硬盘坏了是允许的并可以修改,但如果
2
块以上或更多盘坏了则不行,但若有了热备盘就会代替相应坏盘;
l
常用磁阵设备及操作
l
结合我们的测试环境来了解一下磁阵同单板的连接方式(光纤连接):
l
l
举例常用的
OceanStor
S3900
系列,操作流程如下(参见文档
l
l
执行完
OcenStor
的操作配置后,检查单板同磁阵的连接状态,
root
用户登录单板,在目录
/sys/class/
fc_host
中,其中有
hostx
的目录,进入可查看到以
”port_”
开头的几个文件,如下:
l
port_id
l
port_name
(
光纤口名称,内容同
fabric_name
)
l
port_state
(状态为
Online
表示成功)
l
port_type
l
当
ATAE
背板上有
2
块卡就会有
2
个
host*
的目录
,所以我们在
fc_host
目录下会看到
host1
和
host2
l
l
执行命令
lsscsi
或
fdisk
-l
可查看到映射到单板上显示的物理磁盘,如下:
l
linux
:~ #
lsscsi
l
[0:0:0:0] disk SEAGATE ST973402SS S229 -
l
[0:0:1:0] disk SEAGATE ST973402SS S229 -
l
[0:1:0:0] disk LSILOGIC Logical Volume 3000 /dev/
sda
l
[5:0:0:0] disk up
updisk
1 /dev/
sdb
l
[5:0:0:1] disk up
updisk
1 /dev/
sdc
l
[5:0:0:2] disk up
updisk
1 /dev/
sdd
l
[5:0:0:3] disk up
updisk
1 /dev/
sde
l
[5:0:0:4] disk up
updisk
1 /dev/
sdf
l
其中
sdb
–
sdf
就是在
oceanstor
上划分的各个
LUN
映射到单板上所产生的
l
l
在通过
USM
的“注册主机”安装过程中来安装
UltraPath
软件,安装完后
rpm –
qa
|
grep
UltraPath
检查确认
l
至此,磁阵同单板设备的连接已
OK
lLVM介绍
l
全称
Logical Volume Manager
(逻辑盘卷管理),在使用
linux
系统时常会遇到不知道如何正确的划分分区大小,在一些分区空间耗尽时不知如何扩展,或者即使扩展也需重启硬件导致影响到系统运行,而
LVM
就是可方便灵活的扩展压缩分区并且在系统运行情况使其生效。
l
一种磁盘分区管理机制,是建立在硬盘和分区之上的逻辑概念,可灵活有效管理磁盘分区,可将多个磁盘分区整合为一个逻辑卷组(
VG
),又可在逻辑卷组中划分多个逻辑卷
(LV)
,并在
LV
上创建文件系统;也可调整逻辑卷组的大小,并给卷组根据业务需要重新命名,如
vgora
(存放所有数据库系统表空间对应的逻辑卷)
l
l
名词说明
l
PV
(物理卷,即硬盘分区,如上述的
sdb
-
sdf
)
l
VG
(卷组,可由
1
或多个
pv
所组成)
l
LV
(逻辑卷,基于某个卷组进行创建,
LV
上可建文件系统)
l
PE
(
physicalextent
,物理卷上可被
LVM
寻址的最小基本单位)
l
LE
(
logicalextent
,逻辑卷上可被
LVM
寻址的最小基本单位)
l
PE
和
LE
是相同的且一一对应,对应关
系图如下:
l
从上可看出,
VG
可由多个
PV
组成,而
PV
中的
PE
和
LV
中的
LE
一一进行对应
l
l
磁盘分区、卷组、逻辑卷和文件系统
的逻辑关系如下图:
l
LVM
管理(结合实例)
l
在讲述
LVM
管理前先结合
U09
版本的安装说一下如何进行规划和操作
l
要对
LVM
进行管理,首先检查
LVM
软件是否安装,通常通过
USM
自动化安装即可,命令
rpm –
qa|grep
lvm
检查确认
l
l
lvm
创建过程,流程如下:
l
l
1
、
pvcreate
/dev/
sda
整个磁盘创建物理卷
l
pvcreate
/dev/sdb1
某个磁盘分区上创建物理卷
l
pvscan
物理卷扫描
l
2
、
vgcreate
vgora
/dev/
sda
在磁盘
sda
上创建卷组
vgora
l
vgextend
vgora
/dev/sdb1
添加磁盘分区
sdb1
到卷组
vgora
l
vgreduce
vgora
/dev/sdb1
删除磁盘分区
sdb1
l
vgscan
卷组扫描
l
vgdisplay
查看卷组详细信息
l
3
、
lvcreate
-L 0.1G -n
lvspfile
/dev/
vgora
l
卷组
vgora
上创建
lvspfile
l
lvremove
/dev/
vgora
/
lvspfile
删除
lvspfile
l
lvextend
-L 12G /dev/
vgora
/
lvspfile
将
lvspfile
大小扩展至
12G
l
lvextend
-L +1G /dev/
vgora
/
lvspfile
将
lvspfile
大小增加
1G
l
lvdisplay
查看逻辑卷详细信息
l
l
4
、
mknod /dev/raw/raw1 c 162 1
创建裸设备文件
l
raw /dev/raw/raw1 /dev/
vgora
/
lvspfile
l
创建裸设备文件同
LV
的链接
l
5
、
mkfs
-t
reiserfs
/dev/
vgora
/
lv_archive
创建文件系统
l
mount -t
reiserfs
/dev/
vgora
/
lv_archive
/home/root/direct
挂载文件系统
l
unmount
/dev/
vgora
/
lv_archive
卸载文件系统
l
上述步骤
2
至
4
,我们通常通过
USM
来完成,
USM
在划分时配置如下图:
l
l
上图中创建
vg
分别为
vgora
和
vggroup
,对应
pv
分别为
/dev/
sdb
,/dev/
sdc
, PE
大小为
4M
l
注意:同
1
个卷组中所有
PV
上的
PE
大小必须相同
l
l
创建
LV
为
vgora-lvspfile
,
大小为
30M
,文件系统类型为
RAW
,
RAW
设备文件名为
/dev/raw/raw1
,才用手动
bind