RAID5技术实现磁盘阵列笔记

RAID技术实现磁盘阵列

一、实训目的

掌握Linux系统中利用RAID技术实现磁盘阵列的管理方法

二、实训要求

新添加4块硬盘,在四块硬盘上创建RAID5卷,实现磁盘容错

三、RAID独立磁盘冗余阵列

1)RAID简介:将多个廉价的小型磁盘驱动器合并成一个磁盘阵列,以提高存储性能和容错能力

2)RAID分为软RAID和硬RAID
a.通过软件实现多块硬盘冗余就是软RAID
b.通过硬件RAID卡来实现RAID就是硬RAID

3)RAID的级别分别是0,1,2,3,4,5,常用的是0,1,3,5这四个级别

下面几个RAID是如何构成的,有什么优点和缺点?和其他的RAID有什么不同?

RAID0:将多块磁盘并列合并成一个大的磁盘,不具备冗余容错能力,并行I/O在RAID存储速度最快,RAID0称为带区集,存放数据将数据按磁盘的个数来进行分段,然后同时将这些数据写进磁盘中。至少2块磁盘

RAID1:把磁盘阵列中的硬盘分成相同的两组,写入相同的数据,互为镜像,容错能力最好,利用镜像数据进行恢复,利用率只有50%。至少2块磁盘

RAID3:以一个硬盘来存放数据的奇偶校验位,数据则分段存储在其余硬盘中,类似于RAID0一样以并行方式存储数据,但速度没有RAID0块,利用单独校验盘来对数据进行保护,没有RAID1安全性高,提高了利用率(n-1)
,至少3块磁盘(n是磁盘的总数),如果存储奇偶校验位的硬盘损坏,就可能数据安全性得不到保障,组成至少3块以上磁盘

RAID5:向阵列中的磁盘写数据,奇偶校验数据存放在各个磁盘上,允许单个磁盘出错(采用分布式奇偶校验),不同RAID3的单独磁盘存放校验位,奇偶校验数据交叉存储在各个硬盘上,任一一个磁盘损坏,都可以通过其他硬盘上的校验位来重建损坏的数据,相对于RAID3安全性更高,利用率也是n-1,在中小型企业或大企业中多使用RAID5,RAID5 组成至少3块以上磁盘

四、四块硬盘上创建RAID5卷

1)准备工作:在虚拟机上添加四块SCSI硬盘

RAID5:通过热备盘转移数据,实现RAID5数据转移,至少由3块磁盘组成

Linux中支持RAID0,RAID1,RAID5的软RAID功能,可以做热备盘,软件RAID
支持全局或局部以及热备的漂移,相对硬件RAID利用率不高的

使用:fdisk -l 查看磁盘信息

磁盘 /dev/sdb:10.7 GB, 10737418240 字节,20971520 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节

磁盘 /dev/sdc:10.7 GB, 10737418240 字节,20971520 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节

磁盘 /dev/sdd:10.7 GB, 10737418240 字节,20971520 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节

磁盘 /dev/sde:10.7 GB, 10737418240 字节,20971520 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节

2)四块磁盘进行分区

fdisk /dev/sdb
n
p
回车3次
w

重复上述步骤对dev/sdc dev/sdd dev/sde分区

查看 fdisk -l

磁盘 /dev/sdb:10.7 GB, 10737418240 字节,20971520 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节
磁盘标签类型:dos
磁盘标识符:0xea9d09db

设备 Boot Start End Blocks Id System
/dev/sdb1 2048 20971519 10484736 83 Linux

分成了四块主分区分别是dev/sdb1 dev/sdc1 dev/sdd1 dev/sde1

3)由三块主分区dev/sdb1 dev/sdc1 dev/sdd1创建RAID5

man [参数] mdadm

–create -长格式命令参数 创建
–level=5 --创建raid类型为raid5
–raid-devices=n --创建由多少个设备组成RAID ,n代表设备数

使用命令:mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sd[bcd]1

/dev/md0 --md0代表raid的默认标识

[root@rhel7-1 ~]# mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sd[bcd]1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started. --创建raid5成功

查看命令:mdadm --detail /dev/md0

[root@rhel7-1 ~]# mdadm --detail /dev/md0

Raid Level : raid5 --类型RAID5磁盘阵列 (n-1)利用率
3块只有2块用来做存储数据
Array Size : 20953088 (19.98 GiB 21.46 GB) --磁盘阵列大小
Used Dev Size : 10476544 (9.99 GiB 10.73 GB) --检验磁盘空间大小

Layout : left-symmetric --左对齐,数据从左边硬件开始写入
Chunk Size : 512K --条带大小,raid特有的存储单位

–RAID5的设备构成:
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
3 8 49 2 active sync /dev/sdd1

4)raid5的格式化和挂载

格式化磁盘阵列:

mkfs -t ext4 /dev/md0

[root@rhel7-1 ~]# mkfs -t ext4 /dev/md0 --将raid5磁盘格式化成ext4
Allocating group tables: 完成
正在写入inode表: 完成
Creating journal (32768 blocks): 完成
Writing superblocks and filesystem accounting information: 完成

5)挂载:

创建目录:mkdir /mnt/data

挂载命令:mount /dev/md0 /mnt/data
oot@rhel7-1 ~]# mount /dev/md0 /mnt/data
[root@rhel7-1 ~]# df -hT

文件系统 类型 容量 已用 可用 已用% 挂载点
/dev/md0 ext4 20G 45M 19G 1% /mnt/data

6)给raid5添加有一块磁盘/dev/sde1作为热备盘

mdadm --add /dev/md0 /dev/sde1

[root@rhel7-1 ~]# mdadm --add /dev/md0 /dev/sde1
mdadm: added /dev/sde1
[root@rhel7-1 ~]# mdadm --detail /dev/md0

Active Devices : 3  --启用3块

Working Devices : 4 --工作设备4块
Spare Devices : 1 --备用1块

Number   Major   Minor   RaidDevice State
   0       8       17        0      active sync   /dev/sdb1
   1       8       33        1      active sync   /dev/sdc1
   3       8       49        2      active sync   /dev/sdd1

   4       8       65        -      spare   /dev/sde1 --热备磁盘sde1

7)热备盘漂移实验(模拟sdb1损坏情况,启用热备盘)

a.模拟sdb1损坏情况,启用热备盘

mdadm /dev/md0 --fail /dev/sdb1

[root@rhel7-1 ~]# mdadm /dev/md0 --fail /dev/sdb1 --sdb1失效损坏
mdadm: set /dev/sdb1 faulty in /dev/md0

1)查看raid5的信息
[root@rhel7-1 ~]# mdadm --detail /dev/md0

Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1

        Layout : left-symmetric
    Chunk Size : 512K

Consistency Policy : resync

Rebuild Status : 65% complete  --sde1热备重构

Number Major Minor RaidDevice State
4 8 65 0 spare rebuilding /dev/sde1
1 8 33 1 active sync /dev/sdc1
3 8 49 2 active sync /dev/sdd1

   0       8       17        -      faulty   /dev/sdb1


   0       8       17        -      faulty   /dev/sdb1--失效损坏sdb1

2)数据备份重构完成,首先移除掉失效磁盘sdb1
Number Major Minor RaidDevice State
4 8 65 0 active sync /dev/sde1
1 8 33 1 active sync /dev/sdc1
3 8 49 2 active sync /dev/sdd1

   0       8       17        -      faulty   /dev/sdb1

mdadm /dev/md0 --remove /dev/sdb1

[root@rhel7-1 ~]# mdadm /dev/md0 --remove /dev/sdb1
[root@rhel7-1 ~]# mdadm --detail /dev/md0

Number Major Minor RaidDevice State
- 0 0 0 removed --移除存储设备
1 8 33 1 active sync /dev/sdc1
3 8 49 2 active sync /dev/sdd1
4 8 65 3 active sync /dev/sde1

3)数据备份重构,移除掉失效磁盘sdb1,使用sde1作为热备盘替代了sdb1
重构之后,实现RAID5添加磁盘 /dev/sdb1为热备盘
[root@localhost tubin]# mdadm /dev/md0 --add /dev/sdb1
mdadm: added /dev/sdb1

[root@localhost tubin]# mdadm --detail /dev/md0
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K

Consistency Policy : resync

Number Major Minor RaidDevice State
4 8 65 0 active sync /dev/sde1
1 8 33 1 active sync /dev/sdc1
3 8 49 2 active sync /dev/sdd1

   5       8       17        -      spare   /dev/sdb1

4)模拟sde1损坏情况,启用热备盘,重复上述步骤

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值