RAID(独立冗余磁盘阵列)(第156页)
RAID 0
最少 2 个硬盘串联在一起
优点:读写硬盘数据速度快
缺点:数据无保证,如果一块硬盘损坏所有数据全部丢失RAID 1
最少2个硬盘
优点:一个数据数同时存放在N个硬盘上,数据的安全性高
缺点:由于所有的硬盘都放同样的数据,所以数据利用率低RAID 5
最少3个硬盘
优点:其中任何一设备损坏后不至于出现致命缺陷
缺点:有两个硬盘同时损坏所有数据全部丢失RAID 10
最少4个硬盘:是就RAID 0 + RAID 1 的结合
优点:RAID 0 与 RAID 1 的优缺互补
缺点:成本高
- 格式:mdadm [模式] <RAID设备名称> [选项] [成员设备名称](第159页)
-目录名称 | 应放置文件的内容 |
---|---|
-a | 检测设备名称 |
-n | 指定设备数量 |
-l | 指定 RAID 级别 |
-C | 创建 |
-v | 显示过程 |
-f | 模拟设备损坏 |
-r | 移除设备 |
-Q | 查看摘要信息 |
-D | 查看详细信息 |
-S | 停止 RAID 磁盘阵列 |
RAID 10 创建过程 (第160页)
[root@localhost dev]# mdadm -Cv /dev/md0 -a yes -n 4 -l 10 /dev/sdb /dev/sdc /dev/sdd /dev/sde
mdadm: layout defaults to n2
mdadm: layout defaults to n2
mdadm: chunk size defaults to 512K
mdadm: size set to 20954624K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
#----------------------------------------------
[root@localhost dev]# mkfs.ext4 /dev/md0
#格式化RAID阵列盘 md0
#----------------------------------------------
[root@localhost dev]# mkdir /RAID
#创建一个目录
#----------------------------------------------
[root@localhost dev]# mount /dev/md0 /RAID
#将刚创建的目录挂载到 md0
#----------------------------------------------
[root@localhost dev]# df -h
文件系统 容量 已用 可用 已用% 挂载点
/dev/mapper/centos-root 50G 5.3G 45G 11% /
devtmpfs 481M 0 481M 0% /dev
tmpfs 490M 84K 490M 1% /dev/shm
tmpfs 490M 7.1M 483M 2% /run
tmpfs 490M 0 490M 0% /sys/fs/cgroup
/dev/mapper/centos-home 348G 37M 348G 1% /home
/dev/sda1 497M 119M 379M 24% /boot
/dev/sr0 3.9G 3.9G 0 100% /run/media/root/CentOS 7 x86_64
/dev/md0 40G 49M 38G 1% /RAID
- 查看已创建好的 RAID设备(第161页)
[root@localhost dev]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Jun 25 22:56:10 2020 #创建时间
Raid Level : raid10 #创建等级
Array Size : 41909248 (39.97 GiB 42.92 GB) # 组合后大小
Used Dev Size : 20954624 (19.98 GiB 21.46 GB) # 硬盘大小
Raid Devices : 4 # RAID 硬盘组合数 4
Total Devices : 4 # 总硬盘数 4
Persistence : Superblock is persistent
Update Time : Thu Jun 25 23:00:18 2020 # 更新时间
State : clean # 状态
Active Devices : 4 # 活动的设备数:4
Working Devices : 4 # 工作装置:4
Failed Devices : 0 # 故障设备:0
Spare Devices : 0 # 备用设备:0
Layout : near=2
Chunk Size : 512K
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : e5bcf509:94cb2ecd:406770d3:9d02c1a2
Events : 19
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb # active sync为活跃装态
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
3 8 64 3 active sync /dev/sde
- 开机挂载,写入挂载配置文件(第162页)
[root@localhost dev]# echo "dev/md0 /RAID ext4 defaults 0 0" >> /etc/fstab
- 损坏磁盘阵列及修复(第162页)
模拟磁盘损坏 -f
[root@localhost dev]# mdadm /dev/md0 -f /dev/sdc
#模拟磁盘损坏
[root@localhost dev]# mdadm -D /dev/md0
#---------------略--------------------------------------------
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 0 0 1 removed #这里出现删除
2 8 48 2 active sync /dev/sdd
3 8 64 3 active sync /dev/sde
1 8 32 - faulty /dev/sdc # 提示错误的磁盘
更换坏的磁盘
[root@localhost dev]# umount /RAID
# 卸载 /RAID 目录
#--------------------------------------
[root@localhost dev]# mdadm /dev/md0 -a /dev/sdc
#将新磁盘更换到 /dev/sdc(注意:这一步之前是需要关机添加新磁盘的操作)
#----------------------------------------
[root@localhost dev]# mdadm -D /dev/md0
#----------------略-----------------------------
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
4 8 32 1 spare rebuilding /dev/sdc
#这里序号4是新的磁盘
2 8 48 2 active sync /dev/sdd
3 8 64 3 active sync /dev/sde
删除 RAID阵列
[root@localhost ~]# mdadm -S /dev/md0
mdadm: stopped /dev/md0
#停止 RAID
#-------------------------------------------------------
[root@localhost ~]# mdadm --misc --zero-superblock /dev/sdb
[root@localhost ~]# mdadm --misc --zero-superblock /dev/sdc
[root@localhost ~]# mdadm --misc --zero-superblock /dev/sdd
[root@localhost ~]# mdadm --misc --zero-superblock /dev/sde
#删除 RAID阵列中的磁盘
#注意(还要从 /etc/fstab 的配置文件中去掉 RAID的开机启动)
RAID 5 创建过程(第165页)
[root@localhost ~]# mdadm -Cv /dev/md0 -n 4 -l 5 /dev/sdb /dev/sdc /dev/sdd /dev/sde
#RAID 5 创建过程
#---------------------------------------------------------
[root@localhost ~]# mdadm -D /dev/md0
#---------------------略----------------------------------
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
4 8 64 3 spare rebuilding /dev/sde
#序号4,这一项 spare rebuilding 备用 重建(即/dev/sde 是备用盘)
- 下面模拟 RAID 5 阵列中的一个磁盘损坏的修复过程
[root@localhost ~]# mdadm /dev/md0 -f /dev/sdb
mdadm: set /dev/sdb faulty in /dev/md0
#模拟 /dev/sdb 磁盘损坏
#--------------------------------------------
[root@localhost ~]# mdadm -D /dev/md0
#-------------------略-----------------------------
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
4 8 64 3 active sync /dev/sde
0 8 16 - faulty /dev/sdb
#这里可以看到 序号为4的备用磁盘已自动替换掉 序号为0的/dev/sdb 的磁盘
RAID5 的磁盘更换:模拟现实:1.关机;2.更换新的磁盘到主机;3.开机设备
[root@localhost ~]# mdadm /dev/md0 -a /dev/sdb
mdadm: added /dev/sdb
#开机后执行 -a 将新的磁盘更新到 /dev/sdb 中
[root@localhost ~]# mdadm -D /dev/md0
#----------略-------------------------------
Number Major Minor RaidDevice State
5 8 16 0 spare rebuilding /dev/sdb
#序号5就是刚更新的 备用磁盘(即现在的备用磁盘是 /dev/sdb)
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
4 8 64 3 active sync /dev/sde
#注:其它的格式化,挂载,都与RAID 10创建一样
注意:在不需要RAID阵后的硬盘会存在RAID的阵列信息,即使在新在LINUX系统中也存在,这时对这个硬盘的分区后执行 mkfs.xfs 格式化操作时会报错(设备或资源忙),所在就要执行如下操作,删除RAID
# 查看RAID信息,md0是以前建的,所以试一下看有没有,下面果然存在 /dev/sdb信息
[root@localhost dev]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Raid Level : raid0
Total Devices : 1
Persistence : Superblock is persistent
State : inactive
Working Devices : 1
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : 61b23b9f:9e0f365b:37403035:fcd031fc
Events : 0
Number Major Minor RaidDevice
- 8 16 - /dev/sdb.
#停止 RAID
[root@localhost dev]# mdadm -Ss
#删除 RAID
[root@localhost dev]# mdadm --zero-superblock /dev/sdb
# 再次查看,没有了
[root@localhost dev]# mdadm -D /dev/md0
LVM(逻辑卷管理器)(第166页)
- 常用的 LVM 部署命令
功能 | 物理卷管理 | 卷组管理 | 逻辑卷管理 |
---|---|---|---|
扫描 | pvscan | vgscan | lvscan |
建立 | pvcreate | vgcreate | lvcreate |
显示 | pvdisplay | vgdisplay | lvdisplay |
删除 | pvremove | vgremove | lvremove |
扩展 | vgextend | lvextend | |
缩小 | 【centos 6】 | 第一步:e2fsck -f /dev/卷组/逻辑卷 | |
第二步:resize2fs /dev/卷组/逻辑卷 指定缩到的大小 | |||
缩小 | 【centos 7】 | 第一步:lvreduce | |
第二步:xfs_growfs /dev/centos/root |
在虚拟机添加两块磁盘来实验
- 第1步:让新添加的两块硬盘设备支技LMV技术
[root@localhost ~]# pvcreate /dev/sdb /dev/sdc
#创建物理卷,下面提示成功创建物理卷
Physical volume "/dev/sdb" successfully created
Physical volume "/dev/sdc" successfully created
- 第2步:把两块硬盘设备加入到 storage 卷组中,然后查看卷组的状态
[root@localhost ~]# vgcreate storage /dev/sdb /dev/sdc
#加入卷组
Volume group "storage" successfully created
#-------------------------------------------------------
[root@localhost ~]# vgdisplay
#查看 VG (卷组)状态
--- Volume group ---
VG Name storage #卷组的名字
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size 39.99 GiB #VG大小
PE Size 4.00 MiB
Total PE 10238
Alloc PE / Size 0 / 0
Free PE / Size 10238 / 39.99 GiB
VG UUID KmAfRl-cRUT-ZDrC-6mb0-GfoF-X5TP-h9Fp3M
- 第3步:切割出一个约为 150MB 的逻辑卷设备
这里需要注意切割单位的问题。在对逻辑卷进行切割时有两种计量单位。第一种是以容
量为单位,所使用的参数为-L。例如,使用-L 150M 生成一个大小为 150MB 的逻辑卷。另外
一种是以基本单元的个数为单位,所使用的参数为-l。每个基本单元的大小默认为 4MB。例
如,使用-l 37 可以生成一个大小为 37×4MB=148MB 的逻辑卷。
[root@localhost ~]# lvcreate -n vo -l 37 storage #
# 逻辑卷名称为 vo
Logical volume "vo" created
#-----------------------------------------------------------
[root@localhost ~]# lvdisplay
# 显示 LV(逻辑卷) 状态
--- Logical volume ---
LV Path /dev/storage/vo
LV Name vo
VG Name storage
LV UUID FS4tUj-HTU3-Zt8F-RJum-PLDW-TynC-U2BB1Y
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2020-06-28 22:58:05 +0800
LV Status available
# open 0
LV Size 148.00 MiB
Current LE 37
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:3
- 第4步:把生成好的逻辑卷进行格式化,然后挂载使用
Linux 系统会把 LVM 中的逻辑卷设备存放在/dev 设备目录中(实际上是做了一个符号链
接),同时会以卷组的名称来建立一个目录,其中保存了逻辑卷的设备映射文件(即/dev/卷组
名称/逻辑卷名称)。
[root@localhost ~]# mkfs.ext4 /dev/storage/vo
#格式化 LV(逻辑卷)
#---------------------------------------------------
[root@localhost ~]# mkdir /lws-LV
[root@localhost ~]# mount /dev/storage/vo /lws-LV
#创建一个目录并把LV挂载上这个目录
- 第5步:写入到配置文件,使其永久生效
[root@localhost ~]# echo "/dev/storage/vo /lws-LV ext4 defaults 0 0" >> /etc/fstab
扩容(物理卷)+扩容(卷组)(课本没有)
注:这里是补充扩容物理卷和扩容卷组,这里补充的将硬盘用 fdisk 分区为 /dev/sdd1
- 第1步:先添加一个新的硬盘,然后执行 pvcreate 添加物理卷
[root@localhost ~]# pvcreate /dev/sdd1
[root@localhost ~]# pvdisplay
#查看pv状态,如下已将sdd1添加到物理卷
#----------略-------------------
--- Physical volume ---
PV Name /dev/sdd1
VG Name vg1
PV Size 20.00 GiB / not usable 3.00 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 5119
Free PE 5119
Allocated PE 0
PV UUID WAAAc1-i705-TpE1-z6mW-2G1y-y40Z-DHDWtV
- 第2步:vgextend 扩容卷组
[root@localhost ~]# vgextend vg1 /dev/sdd1
#执行 vgextend 来扩容卷组
Volume group "vg1" successfully extended
[root@localhost ~]# vgdisplay
--- Volume group ---
VG Name vg1
System ID
Format lvm2
Metadata Areas 3 #这里之前是2个硬盘,现在出现了3个
Metadata Sequence No 3
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 0
Max PV 0
Cur PV 3
Act PV 3
VG Size 59.99 GiB
PE Size 4.00 MiB
Total PE 15357
Alloc PE / Size 3072 / 12.00 GiB
Free PE / Size 12285 / 47.99 GiB
VG UUID os9Of7-Gubq-cbW3-Gsyb-mO0P-Csdj-sElh0Q
扩容逻辑卷(第170页)
扩展前请一定要记得卸载设备和挂载点 [root@localhost ~]# umount /lws-LV
- 第1步:把上一个实验中的逻辑卷 vo 扩展至 290MB
[root@localhost ~]# lvextend -L 290M /dev/storage/vo
# -L 扩容至
Rounding size to boundary between physical extents: 292.00 MiB
Extending logical volume vo to 292.00 MiB
Logical volume vo successfully resized
- 检查硬盘完整性,并重置硬盘容量
[root@localhost ~]# e2fsck -f /dev/storage/vo
#检查硬盘完整性
e2fsck 1.42.9 (28-Dec-2013)
第一步: 检查inode,块,和大小
第二步: 检查目录结构
第3步: 检查目录连接性
第4步: Checking reference counts
第5步: 检查簇概要信息
/dev/storage/vo: 11/38000 files (0.0% non-contiguous), 10453/151552 blocks
[root@localhost ~]# resize2fs /dev/storage/vo
#重置硬盘容量
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 299008 (1k) blocks.
The filesystem on /dev/storage/vo is now 299008 blocks long.
- 重新挂载硬盘设备并查看挂载状态
[root@localhost ~]# mount -a
[root@localhost ~]# df -h
文件系统 容量 已用 可用 已用% 挂载点
/dev/mapper/centos-root 50G 5.3G 45G 11% /
devtmpfs 481M 0 481M 0% /dev
tmpfs 490M 84K 490M 1% /dev/shm
tmpfs 490M 7.1M 483M 2% /run
tmpfs 490M 0 490M 0% /sys/fs/cgroup
/dev/mapper/centos-home 348G 37M 348G 1% /home
/dev/sda1 497M 119M 379M 24% /boot
/dev/sr0 3.9G 3.9G 0 100% /run/media/root/CentOS 7 x86_64
/dev/mapper/storage-vo 279M 2.1M 259M 1% /lws-LV
缩小逻辑卷(第171页)
相较于扩容逻辑卷,在对逻辑卷进行缩容操作时,其丢失数据的风险更大。所以在生产
环境中执行相应操作时,一定要提前备份好数据。另外 Linux 系统规定,在对 LVM 逻辑卷进
行缩容操作之前,要先检查文件系统的完整性(当然这也是为了保证我们的数据安全)。在执
行缩容操作前记得先把文件系统卸载掉
缩容前请一定要记得卸载设备和挂载点 [root@localhost ~]# umount /lws-LV
- 检查文件系统的完整性
[root@localhost ~]# e2fsck -f /dev/storage/vo
e2fsck 1.42.9 (28-Dec-2013)
第一步: 检查inode,块,和大小
第二步: 检查目录结构
第3步: 检查目录连接性
第4步: Checking reference counts
第5步: 检查簇概要信息
/dev/storage/vo: 11/74000 files (0.0% non-contiguous), 15507/299008 blocks
- 把逻辑卷 vo 的容量减小到 120MB
[root@localhost ~]# resize2fs /dev/storage/vo 120M
#缩容
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 122880 (1k) blocks.
The filesystem on /dev/storage/vo is now 122880 blocks long.
- 重新挂载文件系统并查看系统状态
[root@localhost ~]# mount -a
#重新挂载
[root@localhost ~]# df -h
文件系统 容量 已用 可用 已用% 挂载点
/dev/mapper/centos-root 50G 5.3G 45G 11% /
devtmpfs 481M 0 481M 0% /dev
tmpfs 490M 84K 490M 1% /dev/shm
tmpfs 490M 7.1M 483M 2% /run
tmpfs 490M 0 490M 0% /sys/fs/cgroup
/dev/mapper/centos-home 348G 37M 348G 1% /home
/dev/sda1 497M 119M 379M 24% /boot
/dev/sr0 3.9G 3.9G 0 100% /run/media/root/CentOS 7 x86_64
/dev/mapper/storage-vo 113M 1.6M 103M 2% /lws-LV
逻辑卷快照(第172页)
LVM 还具备有“快照卷”功能,该功能类似于虚拟机软件的还原时间点功能。例如,可
以对某一个逻辑卷设备做一次快照,如果日后发现数据被改错了,就可以利用之前做好的快
照卷进行覆盖还原。LVM 的快照卷功能有两个特点:
➢ 快照卷的容量必须等同于逻辑卷的容量;
➢ 快照卷仅一次有效,一旦执行还原操作后则会被立即自动删除。
首先查看卷组的信息。
[root@localhost ~]# vgdisplay # 查看卷组信息
--- Volume group ---
VG Name storage
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 3
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 2
Act PV 2
VG Size 39.99 GiB
PE Size 4.00 MiB
Total PE 10238
Alloc PE / Size 73 / 292.00 MiB
Free PE / Size 10165 / 39.71 GiB
VG UUID KmAfRl-cRUT-ZDrC-6mb0-GfoF-X5TP-h9Fp3M
- 第1步:使用-s 参数生成一个快照卷,使用-L 参数指定切割的大小。另外,还需要在命
令后面写上是针对哪个逻辑卷执行的快照操作
[root@localhost ~]# lvcreate -L 120M -s -n SNAP /dev/storage/vo
#创建一个逻辑卷(快照逻辑卷)
Logical volume "SNAP" created
[root@localhost ~]# lvdisplay
#查看逻辑卷信息,发现多出 SNAP 逻辑卷
#------------------略--------------
--- Logical volume ---
LV Path /dev/storage/SNAP
LV Name SNAP
VG Name storage
LV UUID 7Cbsq9-Io7i-SjSe-OWAd-i6Cw-rgFu-kONv1Y
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2020-06-28 23:37:46 +0800
LV snapshot status active destination for vo
LV Status available
# open 0
LV Size 292.00 MiB
Current LE 73
COW-table size 120.00 MiB
COW-table LE 30
Allocated to snapshot 0.01%
Snapshot chunk size 4.00 KiB
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:4
#-----------略----------------------------
- 第2步:在逻辑卷所挂载的目录中创建一个 100MB 的垃圾文件,然后再查看快照卷的状
态。可以发现存储空间占的用量上升了
[root@localhost /]# dd if=/dev/zero of=/lws-LV/files count=1 bs=100M
记录了1+0 的读入
记录了1+0 的写出
104857600字节(105 MB)已复制,5.59831 秒,18.7 MB/秒
[root@localhost ~]# lvdisplay
#查看逻辑卷信息,发现Allocated to snapshot 83.74%
#------------------略--------------
--- Logical volume ---
LV Path /dev/storage/SNAP
LV Name SNAP
VG Name storage
LV UUID 7Cbsq9-Io7i-SjSe-OWAd-i6Cw-rgFu-kONv1Y
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2020-06-28 23:37:46 +0800
LV snapshot status active destination for vo
LV Status available
# open 0
LV Size 292.00 MiB
Current LE 73
COW-table size 120.00 MiB
COW-table LE 30
Allocated to snapshot 83.74%
Snapshot chunk size 4.00 KiB #快照大小,可以看出这个逻辑卷是快照卷
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:4
#-----------略----------------------------
- 第3步:为了校验 SNAP 快照卷的效果,需要对逻辑卷进行快照还原操作。在此之前记
得先卸载掉逻辑卷设备与目录的挂载
[root@localhost /]# umount /lws-LV
[root@localhost /]# lvconvert --merge /dev/storage/SNAP
Merging of volume SNAP started.
vo: Merged: 23.9%
vo: Merged: 100.0%
Merge of snapshot into logical volume vo has finished.
Logical volume "SNAP" successfully removed
- 第4步:快照卷会被自动删除掉,并且刚刚在逻辑卷设备被执行快照操作后再创建出来
的 100MB 的垃圾文件也被清除了
[root@localhost /]# mount -a
[root@localhost /]# ls /lws-LV/
lost+found
删除逻辑卷(第174页)
当生产环境中想要重新部署 LVM 或者不再需要使用 LVM 时,则需要执行 LVM 的删除
操作。为此,需要提前备份好重要的数据信息,然后依次删除逻辑卷、卷组、物理卷设备,这
个顺序不可颠倒
-第1步:取消逻辑卷与目录的挂载关联,删除配置文件中永久生效的设备参数
[root@localhost /]# umount /lws-LV
[root@localhost /]# vim /etc/fstab
#
# /etc/fstab
# Created by anaconda on Fri Jun 12 13:24:27 2020
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/centos-root / xfs defaults 1 1
UUID=a7227714-dd6d-4d11-8157-85fa2ee9f7f3 /boot xfs defaults 1 2
/dev/mapper/centos-home /home xfs defaults 1 2
/dev/mapper/centos-swap swap swap defaults 0 0
/dev/storage/vo /lws-LV ext4 defaults 0 0 #删除 vo 的开机挂载
- 第2步:删除逻辑卷设备,需要输入 y 来确认操作
[root@localhost /]# lvremove /dev/storage/vo
Do you really want to remove active logical volume vo? [y/n]: y
Logical volume "vo" successfully removed
- 第3步:删除卷组,此处只写卷组名称即可,不需要设备的绝对路径
[root@localhost /]# vgremove storage
Volume group "storage" successfully removed
- 第4步:删除物理卷设备
[root@localhost /]# pvremove /dev/sdb /dev/sdc
Labels on physical volume "/dev/sdb" successfully wiped
Labels on physical volume "/dev/sdc" successfully wiped
【centos 7 的LVM创建】(课本外)
创建 swap 交换分区(虚拟内存)
- 第1步:创建LV逻辑分区
[root@localhost ~]# lvcreate -n swap2 -L 1G vg1
Logical volume "swap2" created
- 第2步:在操作之前最好把将缓冲区的数据写 入磁盘
[root@localhost /]# sync;sync
- 第3步:关闭指定的交换分区(注:在删除交换分区时也要记得关闭才能删除)
[root@localhost /]# swapoff /dev/vg1/swap
- 第4步:格式化交换分区
[root@localhost ~]# mkswap /dev/vg1/swap2
- 第5步:打开交换分区
[root@localhost /]# swapon /dev/vg1/swap
- 第6步:配置文件挂载并重启系统
# /etc/fstab
# Created by anaconda on Fri Jun 12 13:24:27 2020
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/centos-root / xfs defaults 1 1
UUID=a7227714-dd6d-4d11-8157-85fa2ee9f7f3 /boot xfs defaults 1 2
/dev/mapper/centos-home /home xfs defaults 1 2
/dev/mapper/centos-swap swap swap defaults 0 0
/dev/vg1/swap swap swap defaults 0 0
/dev/vg1/swap2 swap swap defaults 0 0
#--------------------------------------------------------------------------------------
[root@localhost ~]# init 6 #重启系统
#-----------------------------------------------------------------------------------
[root@localhost ~]# free -h #查看内存详情
total used free shared buffers cached
Mem: 979M 560M 419M 7.1M 892K 189M
-/+ buffers/cache: 370M 609M
Swap: 6.0G 0B 6.0G
- 缩小逻辑卷(注意:xfs系统不支持逻辑卷缩小,非要缩小如下得强制格式化,文件丢失)
缩小逻辑卷之前的创建 PV、VG、LV 的过程跟前面的 centos 6 的创建过程一样。
centos6 与 centos 7 的不同
不同点 | centos 6 | centos 7 |
---|---|---|
文件格式 | mkfs.ext4 | mkfs.xfs |
缩小逻辑卷 | e2fsck -f /dev/卷组名/逻辑卷名 | lvreduce -L -1G /dev/卷组名/逻辑卷名 |
resize2fs /dev/卷组名/逻辑卷名 缩小到(数值) | mkfs.xfs -f /dev/vg1/lv1 |
[root@localhost ~]# lvreduce -L 8G /dev/vg1/lv1 #指定大小到8G
# 或者 lvreduce -L -2G /dev/vg1/lv1 在原来的大小缩小 2G
WARNING: Reducing active logical volume to 8.00 GiB
THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to reduce lv1? [y/n]: y
Reducing logical volume lv1 to 8.00 GiB
Logical volume lv1 successfully resized
#---------------------------------------------------------
[root@localhost ~]# mkfs.xfs -f /dev/vg1/lv1
#缩小逻辑卷后要重新强制(-f)格式化,挂载后才能看到实制大小