<?xml:namespace prefix = o ns = "urn:schemas-microsoft-com:office:office" />

 

 
 
 
 
RAID 全名是Redundant Array of Independent Disk 的缩写,中文意识是独立冗余磁盘阵列

 RAID 采用存储系统,其提高传输速率和提供容错,可靠性,扩大存储等功能

 

 

 第一   RAID 0

   实验前准备,因为实验是在虚拟机上做的,先为虚拟机加快硬盘为了在实验,我一般吧磁盘都分为512M

1 查看磁盘,进行磁盘分区

  #fdisk –l

  #fdisk /dev/sdc
 
但是 RAID 必须把文件类型转化为LINUX  RAID  AUTODECET的类型

 

#command  m for help): t

#partition number 1-2 fd

         :应为我们的就分了两个区 在这只需把需要改变的磁盘文件类型的区号。

 

# Hex code type L to list codes): 需要输入要改变文件类型的代号   可以输入大写的 L 可以查看文件系统类型

2 使mdadm 命令进行创建RAID0

 #mdadm  -v –C  /dev/md0  -a yes  -l  0   -n  2  /dev/sdc{1,2}

   /dev/md0 是要创建的 RAID 0 的名    -l 是说明要创建是那一种 RAID 级别 ,

-n 是要说明你创建的 RAID 0 有几个设备

 

 

3 执行cat /proc/mdstat查看创建的RAID 0

 

 

4 格式化创建的RAID 0 ,但是在格式化前必须先执行partporbe
 #mkfs.ext3  /dev/md0
5 创建目录并挂载

#mkdir   /RAID0

#mount /dev/md0   /RAID0

并执行mount查看

#mount

 

 

7执行命令查看磁盘的情况

# df –lh

 

第二  RAID 1

 

 

  1 同样在创建 RAID 1 是也需要准备虚拟机重新挂载硬盘,分区,

同样是两个分区,且都是 512m 并转化成 RAID LINUX AUTODECET 类型的,该过程和在创建 RAID0 时的过程一样,在此略过 <?xml:namespace prefix = v ns = "urn:schemas-microsoft-com:vml" />
2 执行命令创建 RAID1

 #mdadm –v –C  /dev/md1  -a  yes  -l 1  –n 2 /dev/sdc{3,5}
执行命令查看

 #cat  /proc/mdstat

4 执行命令:

#partprobe

 

 

5 格式化磁盘

 
建立文件夹

 #mkdir  /RAID1

 

6 建立挂载点,并挂载 RAID1

  要是在开机自动挂载是应该编辑文件 /etc/fstab 文件

 # vim /etc/fstab

 /dev/md1    /RAID1     ext3      default       0 0

 

 

#mount /dev/md1   /RAID1

 

7 查看 raid1 的信息

 

 #mdadm   --detail  /dev/md1

 

 

 

 

 

 
 
RAID 5

在做 raid 5 应先分区,分三个区 在这就不指明分区的大小

当然在这就不再重复前面的磁盘分区了,但是在分区后就必须指明文件系统类型,当然文件的系统类型必须是 fd   fd  对应的三个是 linux raid autodetect

  应为在做 raid5 是至少要三块磁盘,且其中一块磁盘做热备。当准备工作完成后,开始配置 raid5

1 . 创建 raid5 

# mdadm   -v  -C  /dev/md5   -a yes –l 5 –n  3  -x  1 /dev/sdd{1,5,6}

   mdadm layout  defaults to left-symmetric

   mdadm: chunk size defaults to 64k

   mdadm size  set  to  987840

   mdadm : array  /dev/md5   started

`2 查看文文件 /part/mdstat

#cat  /part/mdstat

Personalitiles  [raid6] [raid5] [raid4]

Md5 : active raid5 sdd6[2] sdd7[3](s) sdd5[1] sdd1[0]

      1975680 blocks level 5, 64k chunk , algorithm 2 [3/3] [uuu]

Unused devices:<none>

 

3 格式化磁盘

  # mkfs.etx3   /devmd5

 

  ARRAY /dev/md5 level=raid5 num-devices=3 metadata=0.90 spares=1 UUID=c1f61914:fce7d526:78b0a85c:52386d13

 

 

mke2fs 1.39 (29-May-2006)

Filesystem label=

OS type: Linux

Block size=4096 (log=2)

Fragment size=4096 (log=2)

247296 inodes, 493920 blocks

24696 blocks (5.00%) reserved for the super user

First data block=0

Maximum filesystem blocks=507510784

16 block groups

32768 blocks per group, 32768 fragments per group

15456 inodes per group

Superblock backups stored on blocks:

        32768, 98304, 163840, 229376, 294912

 

Writing inode tables: done                           

Creating journal (8192 blocks): done

Writing superblocks and filesystem accounting information: done

 

This filesystem will be automatically checked every 23 mounts or

180 days, whichever comes first.  Use tune2fs -c or -i to override.

 

 

 

 

 

 4 挂载 raid 5 ,但是先建立挂载点,当然要是开机在东挂载是需要编辑文件 /etc/fstab

  #mkdir  /RAID5

  #vim  /etc/fstab

  /dev/md5      /RAID5   ext3   defaults   0  0

  

  如果是直接挂载则不需要编辑文件 /etc/fstab ,直接挂载

# mount  /dev/md5     /RAID5

 

 

      5 查看 raid5 的信息

  # mdadm   --detail   /dev/md5

 

   /dev/md5:

        Version : 0.90

  Creation Time : Sun Feb  7 21:46:27 2010

     Raid Level : raid5

     Array Size : 1975680 (1929.70 MiB 2023.10 MB)

  Used Dev Size : 987840 (964.85 MiB 1011.55 MB)

   Raid Devices : 3

  Total Devices : 4

Preferred Minor : 5

    Persistence : Superblock is persistent

 

    Update Time : Sun Feb  7 21:51:31 2010

          State : clean

 Active Devices : 3

Working Devices : 4

 Failed Devices : 0

  Spare Devices : 1

 

         Layout : left-symmetric

     Chunk Size : 64K

 

           UUID : c1f61914:fce7d526:78b0a85c:52386d13

         Events : 0.2

 

    Number   Major   Minor   RaidDevice State

       0       8       49        0      active sync   /dev/sdd1

       1       8       53        1      active sync   /dev/sdd5

       2       8       54        2      active sync   /dev/sdd6

 

       3       8       55        -      spare   /dev/sdd7

 

6 模拟 raid5 卷中其中的一个分区坏掉

 # mdadm  /dev/md5   -f   /dev/sdd6

 

mdadm set /dev/sdd6  faulty   in /dev/md5

 

 

 

 

7 再次查看 raid5

 # mdadm  --detail  /dev/md5

dev/md5:

        Version : 0.90

  Creation Time : Sun Feb  7 21:46:27 2010

     Raid Level : raid5

     Array Size : 1975680 (1929.70 MiB 2023.10 MB)

  Used Dev Size : 987840 (964.85 MiB 1011.55 MB)

   Raid Devices : 3

  Total Devices : 4

Preferred Minor : 5

    Persistence : Superblock is persistent

 

    Update Time : Sun Feb  7 21:51:31 2010

          State : clean

 Active Devices : 3

Working Devices : 4

 Failed Devices : 0

  Spare Devices : 1

 

         Layout : left-symmetric

     Chunk Size : 64K

 

           UUID : c1f61914:fce7d526:78b0a85c:52386d13

         Events : 0.2

 

    Number   Major   Minor   RaidDevice State

       0       8       49        0      active sync   /dev/sdd1

       1       8       53        1      active sync   /dev/sdd5

       2       8       54        2      active sync   /dev/sdd7

 

       3       8       55        -      spare   /dev/sdd6

 

 

 

8 同是可以把一个新设备加进 raid5 中: 如果说新分的磁盘分区,要先执行下 partporbe ,在进行添加

 # mdadm  RAID 设备” –a  “分区”

 # mdadm    /dev/md5    -a   /dev/sdd8

  Mdadm  added   /dev/sdd8

 

9 再次查看 /dev/md5

# mdadm  --detail   /dev/md5

dev/md5:

        Version : 0.90

  Creation Time : Sun Feb  7 21:46:27 2010

     Raid Level : raid5

     Array Size : 1975680 (1929.70 MiB 2023.10 MB)

  Used Dev Size : 987840 (964.85 MiB 1011.55 MB)

   Raid Devices : 3

  Total Devices : 4

Preferred Minor : 5

    Persistence : Superblock is persistent

 

    Update Time : Sun Feb  7 21:51:31 2010

          State : clean

 Active Devices : 3

Working Devices : 4

 Failed Devices : 0

  Spare Devices : 1

 

         Layout : left-symmetric

     Chunk Size : 64K

 

           UUID : c1f61914:fce7d526:78b0a85c:52386d13

         Events : 0.2

 

    Number   Major   Minor   RaidDevice State

       0       8       49        0      active sync   /dev/sdd1

       1       8       53        1      active sync   /dev/sdd5

       2       8       54        2      active sync   /dev/sdd6

 

       3       8       55        -      faulty spare   /dev/sdd7

   4       8        56       -      spare        /dev/sdd8

 

10 当然可以停止磁盘阵列,也可以启用磁盘阵列

 # mdadm  -A  “ 磁盘阵列名 表示启用 s 设备、

     # mdadm   -scan  扫描磁盘阵列

      # mdadm   -S  表示停止磁盘阵列