Linux就该这么学(使用 RAID 与 LVM 磁盘阵列技术)第7章

RAID(独立冗余磁盘阵列)(第156页)

RAID 0

最少 2 个硬盘串联在一起

优点:读写硬盘数据速度快
缺点:数据无保证,如果一块硬盘损坏所有数据全部丢失

RAID 1

最少2个硬盘

优点:一个数据数同时存放在N个硬盘上,数据的安全性高
缺点:由于所有的硬盘都放同样的数据,所以数据利用率低

RAID 5

最少3个硬盘

优点:其中任何一设备损坏后不至于出现致命缺陷
缺点:有两个硬盘同时损坏所有数据全部丢失

RAID 10

最少4个硬盘:是就RAID 0 + RAID 1 的结合

优点:RAID 0 与 RAID 1 的优缺互补
缺点:成本高

  • 格式:mdadm [模式] <RAID设备名称> [选项] [成员设备名称](第159页)
-目录名称应放置文件的内容
-a检测设备名称
-n指定设备数量
-l指定 RAID 级别
-C创建
-v显示过程
-f模拟设备损坏
-r移除设备
-Q查看摘要信息
-D查看详细信息
-S停止 RAID 磁盘阵列

RAID 10 创建过程 (第160页)

[root@localhost dev]# mdadm -Cv /dev/md0 -a yes -n 4 -l 10 /dev/sdb /dev/sdc /dev/sdd /dev/sde
mdadm: layout defaults to n2
mdadm: layout defaults to n2
mdadm: chunk size defaults to 512K
mdadm: size set to 20954624K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
#----------------------------------------------

[root@localhost dev]# mkfs.ext4 /dev/md0 
#格式化RAID阵列盘 md0
#----------------------------------------------

[root@localhost dev]# mkdir /RAID
#创建一个目录
#----------------------------------------------

[root@localhost dev]# mount /dev/md0 /RAID
#将刚创建的目录挂载到 md0 
#----------------------------------------------

[root@localhost dev]# df -h
文件系统                 容量  已用  可用 已用% 挂载点
/dev/mapper/centos-root   50G  5.3G   45G   11% /
devtmpfs                 481M     0  481M    0% /dev
tmpfs                    490M   84K  490M    1% /dev/shm
tmpfs                    490M  7.1M  483M    2% /run
tmpfs                    490M     0  490M    0% /sys/fs/cgroup
/dev/mapper/centos-home  348G   37M  348G    1% /home
/dev/sda1                497M  119M  379M   24% /boot
/dev/sr0                 3.9G  3.9G     0  100% /run/media/root/CentOS 7 x86_64
/dev/md0                  40G   49M   38G    1% /RAID
  • 查看已创建好的 RAID设备(第161页)
[root@localhost dev]# mdadm -D /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Thu Jun 25 22:56:10 2020 #创建时间
     Raid Level : raid10  #创建等级
     Array Size : 41909248 (39.97 GiB 42.92 GB) # 组合后大小
  Used Dev Size : 20954624 (19.98 GiB 21.46 GB) # 硬盘大小
   Raid Devices : 4  # RAID 硬盘组合数 4
  Total Devices : 4 # 总硬盘数 4
    Persistence : Superblock is persistent

    Update Time : Thu Jun 25 23:00:18 2020 # 更新时间
          State : clean  # 状态
 Active Devices : 4  # 活动的设备数:4
Working Devices : 4  # 工作装置:4
 Failed Devices : 0  # 故障设备:0
  Spare Devices : 0  # 备用设备:0

         Layout : near=2
     Chunk Size : 512K

           Name : localhost.localdomain:0  (local to host localhost.localdomain)
           UUID : e5bcf509:94cb2ecd:406770d3:9d02c1a2
         Events : 19

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb  # active sync为活跃装态
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       3       8       64        3      active sync   /dev/sde
  • 开机挂载,写入挂载配置文件(第162页)
[root@localhost dev]# echo "dev/md0 /RAID ext4 defaults 0 0" >> /etc/fstab
  • 损坏磁盘阵列及修复(第162页)

模拟磁盘损坏 -f

[root@localhost dev]# mdadm /dev/md0 -f /dev/sdc
#模拟磁盘损坏

[root@localhost dev]# mdadm -D /dev/md0
#---------------略--------------------------------------------
    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       0        0        1      removed     #这里出现删除
       2       8       48        2      active sync   /dev/sdd
       3       8       64        3      active sync   /dev/sde

       1       8       32        -      faulty   /dev/sdc    # 提示错误的磁盘

更换坏的磁盘

[root@localhost dev]# umount /RAID
# 卸载 /RAID 目录
#--------------------------------------

[root@localhost dev]# mdadm /dev/md0 -a /dev/sdc
#将新磁盘更换到 /dev/sdc(注意:这一步之前是需要关机添加新磁盘的操作)
#----------------------------------------

[root@localhost dev]# mdadm -D /dev/md0
#----------------略-----------------------------
    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       4       8       32        1      spare rebuilding   /dev/sdc
       #这里序号4是新的磁盘
       2       8       48        2      active sync   /dev/sdd
       3       8       64        3      active sync   /dev/sde

删除 RAID阵列

[root@localhost ~]# mdadm -S /dev/md0
mdadm: stopped /dev/md0
#停止 RAID
#-------------------------------------------------------


[root@localhost ~]# mdadm --misc --zero-superblock /dev/sdb
[root@localhost ~]# mdadm --misc --zero-superblock /dev/sdc
[root@localhost ~]# mdadm --misc --zero-superblock /dev/sdd
[root@localhost ~]# mdadm --misc --zero-superblock /dev/sde
#删除 RAID阵列中的磁盘
#注意(还要从 /etc/fstab 的配置文件中去掉 RAID的开机启动)

RAID 5 创建过程(第165页)

[root@localhost ~]# mdadm -Cv /dev/md0 -n 4 -l 5 /dev/sdb /dev/sdc /dev/sdd /dev/sde
#RAID 5 创建过程
#---------------------------------------------------------

[root@localhost ~]# mdadm -D /dev/md0
#---------------------略----------------------------------
    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       4       8       64        3      spare rebuilding   /dev/sde
       #序号4,这一项 spare rebuilding 备用 重建(即/dev/sde 是备用盘)
  • 下面模拟 RAID 5 阵列中的一个磁盘损坏的修复过程
[root@localhost ~]# mdadm /dev/md0 -f /dev/sdb
mdadm: set /dev/sdb faulty in /dev/md0
#模拟 /dev/sdb 磁盘损坏
#--------------------------------------------

[root@localhost ~]# mdadm -D /dev/md0
#-------------------略-----------------------------
    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       4       8       64        3      active sync   /dev/sde

       0       8       16        -      faulty   /dev/sdb
       #这里可以看到 序号为4的备用磁盘已自动替换掉 序号为0的/dev/sdb 的磁盘

RAID5 的磁盘更换:模拟现实:1.关机;2.更换新的磁盘到主机;3.开机设备

[root@localhost ~]# mdadm /dev/md0 -a /dev/sdb
mdadm: added /dev/sdb
#开机后执行 -a 将新的磁盘更新到 /dev/sdb 中

[root@localhost ~]# mdadm -D /dev/md0
#----------略-------------------------------
    Number   Major   Minor   RaidDevice State
       5       8       16        0      spare rebuilding   /dev/sdb
       #序号5就是刚更新的 备用磁盘(即现在的备用磁盘是 /dev/sdb)
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       4       8       64        3      active sync   /dev/sde
#注:其它的格式化,挂载,都与RAID 10创建一样

注意:在不需要RAID阵后的硬盘会存在RAID的阵列信息,即使在新在LINUX系统中也存在,这时对这个硬盘的分区后执行 mkfs.xfs 格式化操作时会报错(设备或资源忙),所在就要执行如下操作,删除RAID
# 查看RAID信息,md0是以前建的,所以试一下看有没有,下面果然存在 /dev/sdb信息
[root@localhost dev]# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
        Raid Level : raid0
     Total Devices : 1
       Persistence : Superblock is persistent

             State : inactive
   Working Devices : 1

              Name : localhost.localdomain:0  (local to host localhost.localdomain)
              UUID : 61b23b9f:9e0f365b:37403035:fcd031fc
            Events : 0

    Number   Major   Minor   RaidDevice

       -       8       16        -        /dev/sdb.
     
#停止 RAID
[root@localhost dev]# mdadm -Ss

#删除 RAID
[root@localhost dev]# mdadm --zero-superblock /dev/sdb

# 再次查看,没有了
[root@localhost dev]# mdadm -D /dev/md0

LVM(逻辑卷管理器)(第166页)

  • 常用的 LVM 部署命令
功能物理卷管理卷组管理逻辑卷管理
扫描pvscanvgscanlvscan
建立pvcreatevgcreatelvcreate
显示pvdisplayvgdisplaylvdisplay
删除pvremovevgremovelvremove
扩展vgextendlvextend
缩小【centos 6】第一步:e2fsck -f /dev/卷组/逻辑卷
第二步:resize2fs /dev/卷组/逻辑卷 指定缩到的大小
缩小【centos 7】第一步:lvreduce
第二步:xfs_growfs /dev/centos/root

在虚拟机添加两块磁盘来实验

  • 第1步:让新添加的两块硬盘设备支技LMV技术
[root@localhost ~]# pvcreate /dev/sdb /dev/sdc
#创建物理卷,下面提示成功创建物理卷
  Physical volume "/dev/sdb" successfully created
  Physical volume "/dev/sdc" successfully created
  • 第2步:把两块硬盘设备加入到 storage 卷组中,然后查看卷组的状态
[root@localhost ~]# vgcreate storage /dev/sdb /dev/sdc
#加入卷组
  Volume group "storage" successfully created
#-------------------------------------------------------

[root@localhost ~]# vgdisplay
#查看 VG (卷组)状态
  --- Volume group ---
  VG Name               storage   #卷组的名字
  System ID             
  Format                lvm2
  Metadata Areas        2
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                2
  Act PV                2
  VG Size               39.99 GiB  #VG大小
  PE Size               4.00 MiB    
  Total PE              10238
  Alloc PE / Size       0 / 0   
  Free  PE / Size       10238 / 39.99 GiB
  VG UUID               KmAfRl-cRUT-ZDrC-6mb0-GfoF-X5TP-h9Fp3M
   
  • 第3步:切割出一个约为 150MB 的逻辑卷设备

这里需要注意切割单位的问题。在对逻辑卷进行切割时有两种计量单位。第一种是以容
量为单位,所使用的参数为-L。例如,使用-L 150M 生成一个大小为 150MB 的逻辑卷。另外
一种是以基本单元的个数为单位,所使用的参数为-l。每个基本单元的大小默认为 4MB。例
如,使用-l 37 可以生成一个大小为 37×4MB=148MB 的逻辑卷。

[root@localhost ~]# lvcreate -n vo -l 37 storage #
# 逻辑卷名称为 vo
  Logical volume "vo" created
 #-----------------------------------------------------------

[root@localhost ~]# lvdisplay
# 显示 LV(逻辑卷) 状态
  --- Logical volume ---
  LV Path                /dev/storage/vo
  LV Name                vo
  VG Name                storage
  LV UUID                FS4tUj-HTU3-Zt8F-RJum-PLDW-TynC-U2BB1Y
  LV Write Access        read/write
  LV Creation host, time localhost.localdomain, 2020-06-28 22:58:05 +0800
  LV Status              available
  # open                 0
  LV Size                148.00 MiB
  Current LE             37
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:3
   
  • 第4步:把生成好的逻辑卷进行格式化,然后挂载使用

Linux 系统会把 LVM 中的逻辑卷设备存放在/dev 设备目录中(实际上是做了一个符号链
接),同时会以卷组的名称来建立一个目录,其中保存了逻辑卷的设备映射文件(即/dev/卷组
名称/逻辑卷名称)。

[root@localhost ~]# mkfs.ext4 /dev/storage/vo
#格式化 LV(逻辑卷)
#---------------------------------------------------

[root@localhost ~]# mkdir /lws-LV
[root@localhost ~]# mount /dev/storage/vo /lws-LV
#创建一个目录并把LV挂载上这个目录
  • 第5步:写入到配置文件,使其永久生效
[root@localhost ~]# echo "/dev/storage/vo /lws-LV ext4 defaults 0 0" >> /etc/fstab

扩容(物理卷)+扩容(卷组)(课本没有)

注:这里是补充扩容物理卷和扩容卷组,这里补充的将硬盘用 fdisk 分区为 /dev/sdd1

  • 第1步:先添加一个新的硬盘,然后执行 pvcreate 添加物理卷
[root@localhost ~]# pvcreate /dev/sdd1

[root@localhost ~]# pvdisplay
#查看pv状态,如下已将sdd1添加到物理卷
#----------略-------------------
  --- Physical volume ---
  PV Name               /dev/sdd1
  VG Name               vg1
  PV Size               20.00 GiB / not usable 3.00 MiB
  Allocatable           yes 
  PE Size               4.00 MiB
  Total PE              5119
  Free PE               5119
  Allocated PE          0
  PV UUID               WAAAc1-i705-TpE1-z6mW-2G1y-y40Z-DHDWtV
  • 第2步:vgextend 扩容卷组
[root@localhost ~]# vgextend vg1 /dev/sdd1
#执行 vgextend 来扩容卷组
  Volume group "vg1" successfully extended
[root@localhost ~]# vgdisplay
 
  --- Volume group ---
  VG Name               vg1
  System ID             
  Format                lvm2
  Metadata Areas        3 #这里之前是2个硬盘,现在出现了3个
  Metadata Sequence No  3
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               0
  Max PV                0
  Cur PV                3
  Act PV                3
  VG Size               59.99 GiB
  PE Size               4.00 MiB
  Total PE              15357
  Alloc PE / Size       3072 / 12.00 GiB
  Free  PE / Size       12285 / 47.99 GiB
  VG UUID               os9Of7-Gubq-cbW3-Gsyb-mO0P-Csdj-sElh0Q

扩容逻辑卷(第170页)

扩展前请一定要记得卸载设备和挂载点 [root@localhost ~]# umount /lws-LV

  • 第1步:把上一个实验中的逻辑卷 vo 扩展至 290MB
[root@localhost ~]# lvextend -L 290M /dev/storage/vo
# -L 扩容至
  Rounding size to boundary between physical extents: 292.00 MiB
  Extending logical volume vo to 292.00 MiB
  Logical volume vo successfully resized
  • 检查硬盘完整性,并重置硬盘容量
[root@localhost ~]# e2fsck -f /dev/storage/vo
#检查硬盘完整性
e2fsck 1.42.9 (28-Dec-2013)
第一步: 检查inode,,和大小
第二步: 检查目录结构
第3步: 检查目录连接性
第4步: Checking reference counts
第5步: 检查簇概要信息
/dev/storage/vo: 11/38000 files (0.0% non-contiguous), 10453/151552 blocks

[root@localhost ~]# resize2fs /dev/storage/vo
#重置硬盘容量
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 299008 (1k) blocks.
The filesystem on /dev/storage/vo is now 299008 blocks long.
  • 重新挂载硬盘设备并查看挂载状态
[root@localhost ~]# mount -a
[root@localhost ~]# df -h
文件系统                 容量  已用  可用 已用% 挂载点
/dev/mapper/centos-root   50G  5.3G   45G   11% /
devtmpfs                 481M     0  481M    0% /dev
tmpfs                    490M   84K  490M    1% /dev/shm
tmpfs                    490M  7.1M  483M    2% /run
tmpfs                    490M     0  490M    0% /sys/fs/cgroup
/dev/mapper/centos-home  348G   37M  348G    1% /home
/dev/sda1                497M  119M  379M   24% /boot
/dev/sr0                 3.9G  3.9G     0  100% /run/media/root/CentOS 7 x86_64
/dev/mapper/storage-vo   279M  2.1M  259M    1% /lws-LV

缩小逻辑卷(第171页)

相较于扩容逻辑卷,在对逻辑卷进行缩容操作时,其丢失数据的风险更大。所以在生产
环境中执行相应操作时,一定要提前备份好数据。另外 Linux 系统规定,在对 LVM 逻辑卷进
行缩容操作之前,要先检查文件系统的完整性(当然这也是为了保证我们的数据安全)。在执
行缩容操作前记得先把文件系统卸载掉
缩容前请一定要记得卸载设备和挂载点 [root@localhost ~]# umount /lws-LV

  • 检查文件系统的完整性
[root@localhost ~]# e2fsck -f /dev/storage/vo
e2fsck 1.42.9 (28-Dec-2013)
第一步: 检查inode,,和大小
第二步: 检查目录结构
第3步: 检查目录连接性
第4步: Checking reference counts
第5步: 检查簇概要信息
/dev/storage/vo: 11/74000 files (0.0% non-contiguous), 15507/299008 blocks
  • 把逻辑卷 vo 的容量减小到 120MB
[root@localhost ~]# resize2fs /dev/storage/vo 120M
#缩容
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 122880 (1k) blocks.
The filesystem on /dev/storage/vo is now 122880 blocks long.
  • 重新挂载文件系统并查看系统状态
[root@localhost ~]# mount -a
#重新挂载
[root@localhost ~]# df -h
文件系统                 容量  已用  可用 已用% 挂载点
/dev/mapper/centos-root   50G  5.3G   45G   11% /
devtmpfs                 481M     0  481M    0% /dev
tmpfs                    490M   84K  490M    1% /dev/shm
tmpfs                    490M  7.1M  483M    2% /run
tmpfs                    490M     0  490M    0% /sys/fs/cgroup
/dev/mapper/centos-home  348G   37M  348G    1% /home
/dev/sda1                497M  119M  379M   24% /boot
/dev/sr0                 3.9G  3.9G     0  100% /run/media/root/CentOS 7 x86_64
/dev/mapper/storage-vo   113M  1.6M  103M    2% /lws-LV

逻辑卷快照(第172页)

LVM 还具备有“快照卷”功能,该功能类似于虚拟机软件的还原时间点功能。例如,可
以对某一个逻辑卷设备做一次快照,如果日后发现数据被改错了,就可以利用之前做好的快
照卷进行覆盖还原。LVM 的快照卷功能有两个特点:
➢ 快照卷的容量必须等同于逻辑卷的容量;
➢ 快照卷仅一次有效,一旦执行还原操作后则会被立即自动删除。
首先查看卷组的信息。

[root@localhost ~]# vgdisplay  # 查看卷组信息
  --- Volume group ---
  VG Name               storage
  System ID             
  Format                lvm2
  Metadata Areas        2
  Metadata Sequence No  3
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               1
  Max PV                0
  Cur PV                2
  Act PV                2
  VG Size               39.99 GiB
  PE Size               4.00 MiB
  Total PE              10238
  Alloc PE / Size       73 / 292.00 MiB
  Free  PE / Size       10165 / 39.71 GiB
  VG UUID               KmAfRl-cRUT-ZDrC-6mb0-GfoF-X5TP-h9Fp3M
  • 1步:使用-s 参数生成一个快照卷,使用-L 参数指定切割的大小。另外,还需要在命
    令后面写上是针对哪个逻辑卷执行的快照操作
[root@localhost ~]# lvcreate -L 120M -s -n SNAP /dev/storage/vo
#创建一个逻辑卷(快照逻辑卷)
  Logical volume "SNAP" created

[root@localhost ~]# lvdisplay
#查看逻辑卷信息,发现多出 SNAP 逻辑卷
#------------------略--------------
  --- Logical volume ---
  LV Path                /dev/storage/SNAP
  LV Name                SNAP
  VG Name                storage
  LV UUID                7Cbsq9-Io7i-SjSe-OWAd-i6Cw-rgFu-kONv1Y
  LV Write Access        read/write
  LV Creation host, time localhost.localdomain, 2020-06-28 23:37:46 +0800
  LV snapshot status     active destination for vo
  LV Status              available
  # open                 0
  LV Size                292.00 MiB
  Current LE             73
  COW-table size         120.00 MiB
  COW-table LE           30
  Allocated to snapshot  0.01%
  Snapshot chunk size    4.00 KiB
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:4
 #-----------略----------------------------
  • 第2步:在逻辑卷所挂载的目录中创建一个 100MB 的垃圾文件,然后再查看快照卷的状
    态。可以发现存储空间占的用量上升了
[root@localhost /]# dd if=/dev/zero of=/lws-LV/files count=1 bs=100M
记录了1+0 的读入
记录了1+0 的写出
104857600字节(105 MB)已复制,5.59831 秒,18.7 MB/[root@localhost ~]# lvdisplay
#查看逻辑卷信息,发现Allocated to snapshot  83.74%
#------------------略--------------
  --- Logical volume ---
  LV Path                /dev/storage/SNAP
  LV Name                SNAP
  VG Name                storage
  LV UUID                7Cbsq9-Io7i-SjSe-OWAd-i6Cw-rgFu-kONv1Y
  LV Write Access        read/write
  LV Creation host, time localhost.localdomain, 2020-06-28 23:37:46 +0800
  LV snapshot status     active destination for vo
  LV Status              available
  # open                 0
  LV Size                292.00 MiB
  Current LE             73
  COW-table size         120.00 MiB
  COW-table LE           30
  Allocated to snapshot  83.74%
  Snapshot chunk size    4.00 KiB   #快照大小,可以看出这个逻辑卷是快照卷
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:4
 #-----------略----------------------------
  • 第3步:为了校验 SNAP 快照卷的效果,需要对逻辑卷进行快照还原操作。在此之前记
    得先卸载掉逻辑卷设备与目录的挂载
[root@localhost /]# umount /lws-LV
[root@localhost /]# lvconvert --merge /dev/storage/SNAP
  Merging of volume SNAP started.
  vo: Merged: 23.9%
  vo: Merged: 100.0%
  Merge of snapshot into logical volume vo has finished.
  Logical volume "SNAP" successfully removed
  • 第4步:快照卷会被自动删除掉,并且刚刚在逻辑卷设备被执行快照操作后再创建出来
    的 100MB 的垃圾文件也被清除了
[root@localhost /]# mount -a
[root@localhost /]# ls /lws-LV/
lost+found

删除逻辑卷(第174页)

当生产环境中想要重新部署 LVM 或者不再需要使用 LVM 时,则需要执行 LVM 的删除
操作。为此,需要提前备份好重要的数据信息,然后依次删除逻辑卷、卷组、物理卷设备,这
个顺序不可颠倒

-第1步:取消逻辑卷与目录的挂载关联,删除配置文件中永久生效的设备参数

[root@localhost /]# umount /lws-LV
[root@localhost /]# vim /etc/fstab

#
# /etc/fstab
# Created by anaconda on Fri Jun 12 13:24:27 2020
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/centos-root /                       xfs     defaults        1 1
UUID=a7227714-dd6d-4d11-8157-85fa2ee9f7f3 /boot                   xfs     defaults        1 2
/dev/mapper/centos-home /home                   xfs     defaults        1 2
/dev/mapper/centos-swap swap                    swap    defaults        0 0
/dev/storage/vo /lws-LV ext4 defaults 0 0  #删除 vo 的开机挂载
  • 第2步:删除逻辑卷设备,需要输入 y 来确认操作
[root@localhost /]# lvremove /dev/storage/vo
Do you really want to remove active logical volume vo? [y/n]: y
  Logical volume "vo" successfully removed
  • 第3步:删除卷组,此处只写卷组名称即可,不需要设备的绝对路径
[root@localhost /]# vgremove storage
  Volume group "storage" successfully removed
  • 第4步:删除物理卷设备
[root@localhost /]# pvremove /dev/sdb /dev/sdc
Labels on physical volume "/dev/sdb" successfully wiped
Labels on physical volume "/dev/sdc" successfully wiped

【centos 7 的LVM创建】(课本外)

创建 swap 交换分区(虚拟内存)

  • 第1步:创建LV逻辑分区
[root@localhost ~]# lvcreate -n swap2 -L 1G vg1
  Logical volume "swap2" created
  • 第2步:在操作之前最好把将缓冲区的数据写 入磁盘
[root@localhost /]# sync;sync
  • 第3步:关闭指定的交换分区(注:在删除交换分区时也要记得关闭才能删除)
[root@localhost /]# swapoff /dev/vg1/swap
  • 第4步:格式化交换分区
[root@localhost ~]# mkswap /dev/vg1/swap2
  • 第5步:打开交换分区
[root@localhost /]# swapon /dev/vg1/swap
  • 第6步:配置文件挂载并重启系统
# /etc/fstab
# Created by anaconda on Fri Jun 12 13:24:27 2020
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/centos-root /                       xfs     defaults        1 1
UUID=a7227714-dd6d-4d11-8157-85fa2ee9f7f3 /boot                   xfs     defaults        1 2
/dev/mapper/centos-home /home                   xfs     defaults        1 2
/dev/mapper/centos-swap swap                    swap    defaults        0 0
/dev/vg1/swap           swap                    swap    defaults        0 0
/dev/vg1/swap2          swap                    swap    defaults        0 0
#--------------------------------------------------------------------------------------

[root@localhost ~]# init 6   #重启系统
#-----------------------------------------------------------------------------------

[root@localhost ~]# free -h  #查看内存详情
             total       used       free     shared    buffers     cached
Mem:          979M       560M       419M       7.1M       892K       189M
-/+ buffers/cache:       370M       609M
Swap:         6.0G         0B       6.0G
  • 缩小逻辑卷(注意:xfs系统不支持逻辑卷缩小,非要缩小如下得强制格式化,文件丢失)

缩小逻辑卷之前的创建 PV、VG、LV 的过程跟前面的 centos 6 的创建过程一样。
centos6 与 centos 7 的不同

不同点centos 6centos 7
文件格式mkfs.ext4mkfs.xfs
缩小逻辑卷e2fsck -f /dev/卷组名/逻辑卷名lvreduce -L -1G /dev/卷组名/逻辑卷名
resize2fs /dev/卷组名/逻辑卷名 缩小到(数值)mkfs.xfs -f /dev/vg1/lv1
[root@localhost ~]# lvreduce -L 8G /dev/vg1/lv1 #指定大小到8G
# 或者 lvreduce -L -2G /dev/vg1/lv1 在原来的大小缩小 2G
  WARNING: Reducing active logical volume to 8.00 GiB
  THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to reduce lv1? [y/n]: y
  Reducing logical volume lv1 to 8.00 GiB
  Logical volume lv1 successfully resized
 #---------------------------------------------------------

[root@localhost ~]# mkfs.xfs -f /dev/vg1/lv1 
#缩小逻辑卷后要重新强制(-f)格式化,挂载后才能看到实制大小

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值