服务器中创建raid


选项简写

在这里插入图片描述
准备:可以多准备几块磁盘

raid0

raid0的创建

1.首先查看分区

[root@localhost ~]# lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sda               8:0    0   20G  0 disk
├─sda1            8:1    0    1G  0 part  /boot
└─sda2            8:2    0   19G  0 part
  ├─centos-root 253:0    0   17G  0 lvm   /
  └─centos-swap 253:1    0    2G  0 lvm   [SWAP]
sdb               8:16   0   20G  0 disk
├─sdb1            8:17   0    1G  0 part
│ └─md0           9:0    0    3G  0 raid0
└─sdb2            8:18   0    2G  0 part
  └─md0           9:0    0    3G  0 raid0
sr0              11:0    1  4.2G  0 rom
[root@localhost ~]# df -h
文件系统                 容量  已用  可用 已用% 挂载点
devtmpfs                 475M     0  475M    0% /dev
tmpfs                    487M     0  487M    0% /dev/shm
tmpfs                    487M  7.7M  479M    2% /run
tmpfs                    487M     0  487M    0% /sys/fs/cgroup
/dev/mapper/centos-root   17G  1.6G   16G    9% /
/dev/sda1               1014M  138M  877M   14% /boot
tmpfs                     98M     0   98M    0% /run/user/0

2.用fdisk命令进行分区sdb1,sdb2

# fdisk /dev/sdb

3.使用mdadm命令进行raid创建
mdadm -Cv /dev/md0 -l 0 -n 2 /dev/sdb1 /dev/sdb2
查看
mdadm -Ds
4. 进行格式化
mkds.xfs /dev/md0
5.进行挂载
mdkir /raid0
mount -t xfs /dev/md0 /raid0
6.进行查看

[root@localhost ~]# df -h
文件系统                 容量  已用  可用 已用% 挂载点
devtmpfs                 475M     0  475M    0% /dev
tmpfs                    487M     0  487M    0% /dev/shm
tmpfs                    487M  7.7M  479M    2% /run
tmpfs                    487M     0  487M    0% /sys/fs/cgroup
/dev/mapper/centos-root   17G  1.6G   16G    9% /
/dev/sda1               1014M  138M  877M   14% /boot
tmpfs                     98M     0   98M    0% /run/user/0
/dev/md0                 3.0G   33M  3.0G    2% /raid0
[root@localhost ~]# lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sda               8:0    0   20G  0 disk
├─sda1            8:1    0    1G  0 part  /boot
└─sda2            8:2    0   19G  0 part
  ├─centos-root 253:0    0   17G  0 lvm   /
  └─centos-swap 253:1    0    2G  0 lvm   [SWAP]
sdb               8:16   0   20G  0 disk
├─sdb1            8:17   0    1G  0 part
│ └─md0           9:0    0    3G  0 raid0 /raid0
└─sdb2            8:18   0    2G  0 part
  └─md0           9:0    0    3G  0 raid0 /raid0
sr0              11:0    1  4.2G  0 rom

查看RAID 0详细信息
mdadm -D /dev/md0

raid0的删除

1、查看RAID磁盘阵列信息,确认一下要关闭哪个

[root@localhost ~]# cat /proc/mdstat
Personalities : [raid0]
md0 : active raid0 sdb2[1] sdb1[0]
      3141632 blocks super 1.2 512k chunks

unused devices: <none>

2.先解挂

[root@localhost ~]# umount /dev/md0
[root@localhost ~]# lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sda               8:0    0   20G  0 disk
├─sda1            8:1    0    1G  0 part  /boot
└─sda2            8:2    0   19G  0 part
  ├─centos-root 253:0    0   17G  0 lvm   /
  └─centos-swap 253:1    0    2G  0 lvm   [SWAP]
sdb               8:16   0   20G  0 disk
├─sdb1            8:17   0    1G  0 part
│ └─md0           9:0    0    3G  0 raid0
└─sdb2            8:18   0    2G  0 part
  └─md0           9:0    0    3G  0 raid0
sr0              11:0    1  4.2G  0 rom
或者[root@localhost ~]# umount /raid0/

[root@localhost ~]# mdadm -Ds /dev/md0
mdadm: cannot open /dev/md0: No such file or directory
[root@localhost ~]# lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda               8:0    0   20G  0 disk
├─sda1            8:1    0    1G  0 part /boot
└─sda2            8:2    0   19G  0 part
  ├─centos-root 253:0    0   17G  0 lvm  /
  └─centos-swap 253:1    0    2G  0 lvm  [SWAP]
sdb               8:16   0   20G  0 disk
├─sdb1            8:17   0    1G  0 part
└─sdb2            8:18   0    2G  0 part
sr0              11:0    1  4.2G  0 rom

3、停止md0阵列设备

[root@localhost ~]# mdadm -S /dev/md0
mdadm: stopped /dev/md0

4、清除每个磁盘当中阵列的超级块信息,这一步很重要!
mdadm --zero-superblock /dev/sdb
注:如果在/etc/fstab里写了永久挂载信息需要删除
vim /etc/fstab
删除或注释/etc/mdadm.conf对应的RAID信息
vim /etc/mdadm.conf

raid1

raid1的创建

[root@localhost ~]# mdadm -Cv /dev/md1 -l1 -n2 /dev/sdb1 /dev/sdb2
mdadm: /dev/sdb1 appears to be part of a raid array:
       level=raid0 devices=2 ctime=Tue Jan 23 16:40:12 2024
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sdb2 appears to be part of a raid array:
       level=raid0 devices=2 ctime=Tue Jan 23 16:40:12 2024
mdadm: size set to 1046528K
mdadm: largest drive (/dev/sdb2) exceeds size (1046528K) by more than 1%
Continue creating array?
Continue creating array? (y/n) y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
[root@localhost ~]# mdadm -D /dev/md1
/dev/md1:
           Version : 1.2
     Creation Time : Thu Jan 25 09:52:42 2024
        Raid Level : raid1
        Array Size : 1046528 (1022.00 MiB 1071.64 MB)
     Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Thu Jan 25 09:52:48 2024
             State : clean
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : localhost.localdomain:1  (local to host localhost.localdomain)
              UUID : 64a3d36b:869025fe:414d2e2b:5c968bef
            Events : 17

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       18        1      active sync   /dev/sdb2
[root@localhost ~]# lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sda               8:0    0   20G  0 disk
├─sda1            8:1    0    1G  0 part  /boot
└─sda2            8:2    0   19G  0 part
  ├─centos-root 253:0    0   17G  0 lvm   /
  └─centos-swap 253:1    0    2G  0 lvm   [SWAP]
sdb               8:16   0   20G  0 disk
├─sdb1            8:17   0    1G  0 part
│ └─md1           9:1    0 1022M  0 raid1
└─sdb2            8:18   0    2G  0 part
  └─md1           9:1    0 1022M  0 raid1
sr0              11:0    1  4.2G  0 rom

[root@localhost ~]# mkdir /raid1
[root@localhost ~]# mkfs.xfs -f /dev/md1
meta-data=/dev/md1               isize=512    agcount=4, agsize=65408 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=261632, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=855, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@localhost ~]# mount -t xfs /dev/md1 /raid1

[root@localhost ~]# df -h
文件系统                 容量  已用  可用 已用% 挂载点
devtmpfs                 475M     0  475M    0% /dev
tmpfs                    487M     0  487M    0% /dev/shm
tmpfs                    487M  7.7M  479M    2% /run
tmpfs                    487M     0  487M    0% /sys/fs/cgroup
/dev/mapper/centos-root   17G  1.6G   16G    9% /
/dev/sda1               1014M  138M  877M   14% /boot
tmpfs                     98M     0   98M    0% /run/user/0
/dev/md1                1019M   33M  987M    4% /raid1

删除raid1

raid5

创建raid5

根据 RAID5 的要求,至少需要 3 个以上的设备。也就是说,一个有效的 RAID5 数组应该至少包含 3 个或更多的磁盘

[root@localhost ~]# mdadm -Cv  /dev/md5 -l5 -n3 /dev/sdc[1-3]
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 1046528K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
[root@localhost ~]# mdadm -D /dev/md5
/dev/md5:
           Version : 1.2
     Creation Time : Fri Jan 26 11:27:17 2024
        Raid Level : raid5
        Array Size : 2093056 (2044.00 MiB 2143.29 MB)
     Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Fri Jan 26 11:27:23 2024
             State : clean
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : localhost.localdomain:5  (local to host localhost.localdomain)
              UUID : b911d507:2e3a6272:05000db3:1b60dff7
            Events : 18

    Number   Major   Minor   RaidDevice State
       0       8       33        0      active sync   /dev/sdc1
       1       8       34        1      active sync   /dev/sdc2
       3       8       35        2      active sync   /dev/sdc3
[root@localhost ~]# lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sda               8:0    0   20G  0 disk
├─sda1            8:1    0    1G  0 part  /boot
└─sda2            8:2    0   19G  0 part
  ├─centos-root 253:0    0   17G  0 lvm   /
  └─centos-swap 253:1    0    2G  0 lvm   [SWAP]
sdb               8:16   0   20G  0 disk
├─sdb1            8:17   0    1G  0 part
│ └─md1           9:1    0 1022M  0 raid1
├─sdb2            8:18   0    2G  0 part
│ └─md1           9:1    0 1022M  0 raid1
├─sdb3            8:19   0    2G  0 part
└─sdb4            8:20   0    2G  0 part
sdc               8:32   0   20G  0 disk
├─sdc1            8:33   0    1G  0 part
│ └─md5           9:5    0    2G  0 raid5
├─sdc2            8:34   0    1G  0 part
│ └─md5           9:5    0    2G  0 raid5
└─sdc3            8:35   0    1G  0 part
  └─md5           9:5    0    2G  0 raid5
sr0              11:0    1  4.2G  0 rom

[root@localhost ~]# mkfs.xfs /dev/md5
meta-data=/dev/md5               isize=512    agcount=8, agsize=65408 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=523264, imaxpct=25
         =                       sunit=128    swidth=256 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@localhost ~]# mkdir /raid5
[root@localhost ~]# mount /dev/md5 /raid5/
[root@localhost ~]# df -h
文件系统                 容量  已用  可用 已用% 挂载点
devtmpfs                 475M     0  475M    0% /dev
tmpfs                    487M     0  487M    0% /dev/shm
tmpfs                    487M  7.7M  479M    2% /run
tmpfs                    487M     0  487M    0% /sys/fs/cgroup
/dev/mapper/centos-root   17G  1.6G   16G    9% /
/dev/sda1               1014M  138M  877M   14% /boot
tmpfs                     98M     0   98M    0% /run/user/0
/dev/md5                 2.0G   33M  2.0G    2% /raid5

删除raid5

[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md5 : active raid5 sdc3[3] sdc2[1] sdc1[0]
      2093056 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

md1 : active raid1 sdb2[1] sdb1[0]
      1046528 blocks super 1.2 [2/2] [UU]

unused devices: <none>
[root@localhost ~]# umount /dev/md5
[root@localhost ~]# mdadm -S /dev/md5
mdadm: stopped /dev/md5
[root@localhost ~]# mdadm --zero-superblock /dev/sdc1 /dev/sdc2 /dev/sdc3

如果在/etc/fstab里写了永久挂载信息需要删除


删除或注释/etc/mdadm.conf对应的RAID信息
vim /etc/mdadm.conf  ##进入配置进行修改
如果没有/etc/mdadm.conf跳过即可,有就将对应的RAID文件删除
  • 9
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: 1. 进入服务器BIOS设置界面,按下F2键进入。 2. 在BIOS设置界面,选择“Integrated Devices”选项卡,找到“SATA Operation”选项,将其设置为“RAID On”。 3. 保存设置并退出BIOS界面,重新启动服务器。 4. 在服务器启动时,按下Ctrl+R键进入RAID配置界面。 5. 在RAID配置界面,选择“Create Virtual Disk”选项,按照提示设置RAID级别、磁盘数量、磁盘大小等参数。 6. 确认设置无误后,保存并退出RAID配置界面。 7. 重新启动服务器RAID配置完成。可以在操作系统查看RAID磁盘的状态和容量等信息。 ### 回答2: Dell R720服务器是一款高端的服务器,在进行创建 RAID 时需要先了解其特点和硬件配置。它配备了多个硬件余量,可容纳4个硬盘和支持不同的RAID级别。下面是创建 RAID 的具体步骤: 1.在机器启动时按F2键,进入BIOS设置菜单,找到“RAID”选项,选择“Create New RAID Volume”. 进入RAID创建菜单。 2.选择RAID级别。 Dell R720支持多种RAID级别, 包括RAID 0、RAID 1、RAID 5、RAID 6、RAID 10等。 用户需要根据自己的需求和数据备份能力选择合适的RAID级别。 3.选择要创建RAID的物理磁盘。Dell R720服务器最多支持4个物理磁盘,我们需要将它们选择一个或多个加入RAID。选择好并拉动到已选择磁盘的框内。 4.进入RAID Volume配置。我们需要给这个RAID集合在文件系统级别创建一个虚拟磁盘。在这里可以设置RAID名称、RAID Size等参数。 5.设置RAID预配方法。可以选择创建一个磁盘映像,或者默认的容量。 6.点击‘Finish’,确认您的设置,并创建一个RAID卷。 以上步骤完成后,系统会开始构建RAID,这个过程会需要一些时间,次此期间在服务器上不能进行其他操作。在数构建,若果出现错误或失败,提示将出现,需要根据提示进行相关问题的处理。 总之,创建 RAID 需要注意,必须要在了解服务器特性和硬件配置的基础上,进行详细的操作。这样,才能够有效的使用服务器,并保障数据的安全。 ### 回答3: Dell R720服务器是一台非常强大的服务器,在使用时需要进行RAID配置,以提高数据可靠性和性能。以下是Dell R720服务器创建RAID的步骤。 1. 进入服务器BIOS设置 首先需要启动Dell R720服务器,并按下F2键进入BIOS设置。在BIOS界面选择“Device Settings”选项,然后选择“RAID Configuration”。 2. 选择RAID级别 在RAID Configuration界面,可以选择不同的RAID级别,包括RAID 0、RAID 1、RAID 5、RAID 6和RAID 10。不同的RAID级别对性能和可靠性都有不同的影响。 3. 创建虚拟磁盘 在选择了RAID级别后,需要创建虚拟磁盘。在选择RAID级别后,选择“Create Virtual Disk”选项。在这一步可以选择虚拟磁盘的名称、RAID级别、磁盘数量、读写策略等。 4. 完成RAID配置 完成虚拟磁盘的创建后,可以选择“Save Changes”选项将RAID配置保存。在这一步需要确保所有RAID磁盘都已经正确识别,并且RAID级别选择正确。 5. 安装操作系统 完成RAID配置后,可以安装操作系统。在安装过程,需要选择正确的RAID驱动程序,并将其加载到系统。 通过上述步骤,可以在Dell R720服务器创建RAID,并提高数据可靠性和性能。需要注意的是需要按照正确操作步骤进行配置,否则有可能会导致数据丢失或RAID失效。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值