无法动态调整,是公司最常用,支持热插拔,磁盘冗余阵列(多个硬盘联合使用的技术)
两种实现方式:
1、硬RAID — 企业必用 – 专门购买RAID卡(类似SSD固态硬盘) – 调试过程通过类似BIOS系统的页面(HP、DELL赘瘤服务器都是具备RAID卡槽)
2、软RAID — 和硬RAID原理上完全一样的,mdadm命令控制RAID创建、修改、删除等操作
- 创建RAID涉及参数
3、RAID6种类型: - RAID-0 ,又叫striping,至少需要两块硬盘,只注重速率,硬盘读写的速率,没有任何的数据冗余措施(如果某个block坏了,数据丢失),但是磁盘利用率是100%
- RAID-1 又叫mirroring,至少两块盘,速度并没有提升,磁盘使用率 1/n,但是提供了数据冗余,两块盘数据完全一样(只要我们不是同时损坏同一处数据),都可以恢复
- RAID-10-RAID-1为底层,RAID-2为上层,不能同事损坏RAID1中的同一个block
[root@localhost ~]# yum install -y mdadm //安装创建所需的mdadm
创建RAID 10
[root@localhost ~]# mdadm -Cv /dev/md0 -a yes -l10 -n4 /dev/sd{d,e,f,g}
mdadm: layout defaults to n2
mdadm: layout defaults to n2
mdadm: chunk size defaults to 512K
mdadm: size set to 20955136K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# mkfs.ext4 /dev/md0 //格式化md0
mke2fs 1.42.9 (28-Dec-2013)
文件系统标签=
OS type: Linux
块大小=4096 (log=2)
分块大小=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10477568 blocks
523878 blocks (5.00%) reserved for the super user
第一个数据块=0
Maximum filesystem blocks=2157969408
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624
Allocating group tables: 完成
正在写入inode表: 完成
Creating journal (32768 blocks): 完成
Writing superblocks and filesystem accounting information: 完成
[root@localhost ~]# mdadm -D /dev/md0 //查看md0信息
/dev/md0:
Version : 1.2
Creation Time : Thu Mar 21 22:35:47 2019
Raid Level : raid10
Array Size : 41910272 (39.97 GiB 42.92 GB)
Used Dev Size : 20955136 (19.98 GiB 21.46 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Thu Mar 21 22:46:33 2019
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : 0300afac:8375f5e0:b6397d99:13e2ff9b
Events : 17
Number Major Minor RaidDevice State
0 8 48 0 active sync set-A /dev/sdd
1 8 64 1 active sync set-B /dev/sde
2 8 80 2 active sync set-A /dev/sdf
3 8 96 3 active sync set-B /dev/sdg
[root@localhost ~]# mdadm /dev/md0 -f /dev/sdg //模拟sdg硬盘损坏
mdadm: set /dev/sdg faulty in /dev/md0
[root@localhost ~]# umount /raid/ //卸载挂载目录
[root@localhost ~]# mdadm /dev/md0 -a /dev/sdh //添加新的硬盘sdh
mdadm: added /dev/sdh
[root@localhost ~]# mount /dev/md0 /raid
[root@localhost ~]# mdadm -S /dev/md0 //停止mdo
- RAID-01—RAID-0为底层,RAID-1为上层
- RAID-5至少需要三块盘,至多损坏一块,硬盘使用率 (n-1)/n,单奇偶校验
实例(创建RAID5,附加一块备份盘sde):
[root@localhost ~]# mdadm -Cv /dev/md0 -n3 -x1 -l5 -a yes /dev/sd[b-e]
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 20955136K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# mkfs.xfs /dev/md0
[root@localhost ~]# mdadm /dev/md0 -f /dev/sdc
mdadm: set /dev/sdc faulty in /dev/md0
[root@localhost ~]# mdadm -D /dev/md0
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
3 8 64 1 active sync /dev/sde
4 8 48 2 active sync /dev/sdd
1 8 32 - faulty /dev/sdc
备注:备份盘一定是放在主盘后,如果c突然好了,软RAID不会,硬RAID会顶替sde
- RAID-6 至少四块盘,至多损坏两块,使用率(n-2)/n,双奇偶校验码