raid磁盘阵列:
也是可以用不同的硬盘分区,组成一个逻辑上的硬盘。
高可用 冗余
硬盘 分了就是分了。
lvm 扩容
raid 高可用
磁盘的组成方式不同,也就是不同的raid级别
raid0:
条带化存储:数据分散在多个物理磁盘上的存储方式。利用多个磁盘并行读取和写入。存储性能和读写性能是最高的。
raid0使用的就是条带化存储,没有冗余能力,坏一块盘数据就会丢失。
raid0使用场景: 高吞吐和低延迟的应用场景。视频,大数据处理。
raid0最少要一块硬盘分区。
硬盘利用率是100%。
raid1:
镜像存储:两两复制,数据会存储在所有的硬盘上。
raid1:需要的磁盘数N(偶数)
raid1:可以提高读性能,写性能相对较低,数据在每个磁盘上都要备份。
raid1:可以提供冗余
raid1:磁盘利用率50%
raid5:
raid5:条带 数据是分散存储,根据效验机制,循环均衡存储。
raid5:n>=3 有四个硬盘,怎么选择磁盘阵列?
raid5:有冗余,可以坏一块盘,如果有热备份,可以再坏一个盘。
raid5:读性能很好,写性能相对较差。
raid5:磁盘利用率(n-1)n raid5是最多的
raid6:
raid6:需要4块硬盘,n>=4
raid6:磁盘利用率n-2/n
raid6:有冗余,有奇偶校验,每个盘上的数据一致,循环按照奇数和偶数来把数据写入磁盘。
raid6:最多可以坏两个盘。
raid6:读性能和raid5差不多,比raid5强,比raid1低一些。写性能是最差的。
raid6:可靠性是最高的,最可靠的raid级别,金融、医疗、法律、银行都爱用raid6。这些机构对数据的完整性和可靠性要求很高,选择raid6。
raid10:
raid10:最少需要4块,盘数必须是偶数。先做镜像再做条带
raid10:有冗余,可以坏两块,每个两两复制的硬盘当中可以坏一个。
raid10:磁盘利用率n/2 50% 土豪
raid10:读写性能 性能高 读性能和raid0差不多,稍低一些,写性能和raid1差不多,比raid1稍差。
raid级别:
raid级别 | 使用硬盘数量 | 磁盘利用率 | 冗余能力 | 读写性能 |
---|---|---|---|---|
raid0 | N | 100% | 无 | 读性能最号好 |
raid1 | N(偶数) | 50% | 坏一块 | 读性能好,写性能相对较差 |
raid5 | N>=3 | n-1/n | 坏一块 | 读性能好。写性能一般 |
raid6 | N>=4 | n-2/n | 坏两块 | 读性能好,写性能最差 |
raid10 | N>=4(N是偶数) | 50% | 每个组当中可以各坏一个 | 读性能好,写性能一般,比raid5强一些 |
在企业当中,用的最多的是raid5。
面试题------有四个硬盘,怎么选择硬盘阵列?
raid raid1 raid5 经济实惠 raid6 可以坏两个 raid10 虽然是可以坏两个,但是磁盘利用率50% 总结:我个人认为在当前条件,选择raid5是比较合适的选择。 3+1热备份
热备份:
热备份:当阵列中,有一块硬盘坏了,热备份盘可以随时顶替。相当于磁盘的最后一次保险。
工作原理:热备份相当于给raid又做了一个备份,raid当中坏了一块硬盘,热备份在顶替的过程中,利用校验算法,把阵列当中的数据同步过来,然后再顶替坏掉的硬盘。在替换过程中,阵列是不可使用的,顶替完成之后,raid恢复正常状态。
冷:static
热:活动状态
实验:
查看有无安装mdadm
[root@localhost ~]# rpm -q mdadm mdadm-4.1-rc1_2.el7.x86_64
raid5磁盘阵列操作:
1、创建一个raid5的磁盘阵列
[root@localhost ~]# mdadm -Cv /dev/md5 -l5 -n3 /dev/sd[b-d]1 -x1 /dev/sde1
2、查看raid5的详细信息
[root@localhost ~]# mdadm -D /dev/md5 /dev/md5: Version : 1.2 Creation Time : Wed May 29 14:32:02 2024 Raid Level : raid5 Array Size : 20953088 (19.98 GiB 21.46 GB) Used Dev Size : 10476544 (9.99 GiB 10.73 GB) Raid Devices : 3 Total Devices : 4 Persistence : Superblock is persistent Update Time : Wed May 29 14:32:23 2024 State : clean Active Devices : 3 Working Devices : 4 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Consistency Policy : resync Name : localhost.localdomain:5 (local to host localhost.localdomain) UUID : 8c7a5404:3e5ade65:2d65f4d7:f8d739ca Events : 18 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 4 8 49 2 active sync /dev/sdd1 3 8 65 - spare /dev/sde1
3、创建文件系统
[root@localhost ~]# mkfs.xfs /dev/md5
4、挂载
[root@localhost /]# mkdir /data [root@localhost /]# mount /dev/md5 /data/
5、模拟故障,看热备份盘能否顶替坏掉的硬盘
[root@localhost data]# mdadm /dev/md5 -f /dev/sdb1 mdadm: set /dev/sdb1 faulty in /dev/md5 [root@localhost data]# mdadm -D /dev/md5 Number Major Minor RaidDevice State 3 8 65 0 active sync /dev/sde1 1 8 33 1 active sync /dev/sdc1 4 8 49 2 active sync /dev/sdd1 0 8 17 - faulty /dev/sdb1 #显示/dev/sde1已经顶替了/dev/sdb1
6、再坏两块查看raid5能否正常使用
[root@localhost /]# cd data [root@localhost data]# ls ls: 无法打开目录.: 输入/输出错误 #显示raid5无法正常使用
7、删除raid5的配置
[root@localhost /]# umount /dev/md5 #先解挂载 [root@localhost /]# mdadm -S /dev/md5 #删除raid5 mdadm: stopped /dev/md5 [root@localhost /]# mdadm --misc --zero-superblock /dev/sd[b-e]1 #把分盘从磁盘阵列中删除
raid10磁盘阵列的操作:
1、创建raid10磁盘阵列
[root@localhost /]# mdadm -Cv /dev/md10 -l10 -n4 -x1 /dev/sd{b,c,d,e,f}2
2、查看raid10详细信息
[root@localhost /]# mdadm -D /dev/md10 /dev/md10: Version : 1.2 Creation Time : Wed May 29 15:00:18 2024 Raid Level : raid10 Array Size : 20951040 (19.98 GiB 21.45 GB) Used Dev Size : 10475520 (9.99 GiB 10.73 GB) Raid Devices : 4 Total Devices : 5 Persistence : Superblock is persistent Update Time : Wed May 29 15:00:56 2024 State : clean Active Devices : 4 Working Devices : 5 Failed Devices : 0 Spare Devices : 1 Layout : near=2 Chunk Size : 512K Consistency Policy : resync Name : localhost.localdomain:10 (local to host localhost.localdomain) UUID : edea06b6:9de4cb0f:b46d99cc:502297f9 Events : 17 Number Major Minor RaidDevice State 0 8 18 0 active sync set-A /dev/sdb2 1 8 34 1 active sync set-B /dev/sdc2 2 8 50 2 active sync set-A /dev/sdd2 3 8 66 3 active sync set-B /dev/sde2 4 8 82 - spare /dev/sdf2
3、创建文件系统
[root@localhost /]# mkfs.xfs /dev/md10
4、挂载
[root@localhost /]# mkdir /data2 [root@localhost /]# mount /dev/md10 /data2
5、模拟故障,看热备份盘能否顶替坏掉的硬盘
[root@localhost /]# mdadm /dev/md10 -f /dev/sdb2 mdadm: set /dev/sdb2 faulty in /dev/md10 [root@localhost /]# mdadm -D /dev/md10 Number Major Minor RaidDevice State 4 8 82 0 active sync set-A /dev/sdf2 1 8 34 1 active sync set-B /dev/sdc2 2 8 50 2 active sync set-A /dev/sdd2 3 8 66 3 active sync set-B /dev/sde2 0 8 18 - faulty /dev/sdb2
6、模拟不同组各坏一个硬盘能否正常使用
[root@localhost /]# mdadm /dev/md10 -f /dev/sde2 mdadm: set /dev/sde2 faulty in /dev/md10 [root@localhost /]# mdadm /dev/md10 -f /dev/sdf2 mdadm: set /dev/sdf2 faulty in /dev/md10 [root@localhost /]# mdadm -D /dev/md10 Number Major Minor RaidDevice State - 0 0 0 removed 1 8 34 1 active sync set-B /dev/sdc2 2 8 50 2 active sync set-A /dev/sdd2 - 0 0 3 removed 0 8 18 - faulty /dev/sdb2 3 8 66 - faulty /dev/sde2 4 8 82 - faulty /dev/sdf2
[root@localhost /]# cd /data2 [root@localhost data2]# touch {1..5}.txt [root@localhost data2]# ls 1.txt 2.txt 3.txt 4.txt 5.txt #可以正常使用
7、删除raid10配置
[root@localhost /]# umount /dev/md10 [root@localhost /]# mdadm -S /dev/md10 mdadm: stopped /dev/md10 [root@localhost /]# mdadm --misc --zero-superblock /dev/sd[b-f]2