Linux Centos7 常见运维问题场景&解决

1 scp 拷贝一个文件或文件夹到另外一个服务器

scp [option] /path/to/source/file user@server-ip:/path/to/destination/directory

/path/to/source/file– 这是打算复制到远程主机的源文件。

user@server-IP:– 这是远程系统的用户名和 IP 地址。请注意 IP 地址后面加冒号。

/path/to/destination/directory– 这是文件将复制到的远程系统上的目标目录。

例如将当前目录下的 test_dir 文件夹拷贝到192.168.1.44服务器上的 /root目录下,那命令为:

scp -r test_dir root@192.168.1.44:/root/

2 无网络环境的服务器下载依赖包-方式一

可以先用另外一台有网络的服务器,把先下载rpm依赖包到本地目录,然后将rpm依赖包上传到无网络环境的服务器,最后在无网络环境的服务器上离线安装rpm包。

下载依赖包到本地的命令
repotrack 依赖包名称
例如下载 centos-release-scl 依赖包

repotrack  centos-release-scl

在这里插入图片描述
然后把依赖包上传到无网络环境的服务器,在服务器上下执行以下命令

rpm -ivh ./*.rpm

3 无网络环境的服务器下载依赖包-方式二

3.1 挂载iso镜像文件配置本地yum源

在这里插入图片描述
在这里插入图片描述

# 创建挂载文件夹
[root@localhost ~]#  mkdir /media/cdrom
[root@localhost ~]# mount /dev/sr0 /media/cdrom/
mount: /media/cdrom: /dev/sr0 已挂载于 /run/media/root/Kylin-Server-10.

在这里插入图片描述

[root@localhost ~]# cd /etc/yum.repos.d/
[root@localhost yum.repos.d]# mkdir repo_backup
[root@localhost yum.repos.d]# mv *.repo repo_backup/
[root@localhost yum.repos.d]# vim myCustom.repo
# myCustom.repo 文件内容如下
[local]  
name=Instructor Server Repository     
baseurl=file:///media/cdrom/
enabled=1  
gpgcheck=0
# =============内容结束===============
[root@localhost yum.repos.d] yum clean all
0 文件已删除
[root@localhost yum.repos.d]# yum repolist
仓库标识                                                                                         仓库名称
local                                                                                            Instructor Server Repository

通过yum命令下载依赖包
在这里插入图片描述

3.2 上传iso镜像、挂载并配置本地yum源

[root@localhost ~]# mkdir -p  /mnt/cdrom/Server
[root@localhost ~]# cd /mnt/cdrom/Server

上传镜像到 /mnt/cdrom/Server 目录下
在这里插入图片描述

[root@localhost Server]# mount -o loop  /mnt/cdrom/Server/Kylin-Server-10-SP2-x86-Release-Build09-20210524.iso /mnt/cdrom/
mount: /mnt/cdrom/: /mnt/cdrom/Server/Kylin-Server-10-SP2-x86-Release-Build09-20210524.iso 已经挂载.

在这里插入图片描述

[root@localhost ~]# cd /etc/yum.repos.d/
[root@localhost yum.repos.d]# mkdir repo_backup
[root@localhost yum.repos.d]# mv *.repo repo_backup/
[root@localhost yum.repos.d]# vim myCustom.repo
# myCustom.repo 文件内容如下
[local]  
name=Instructor Server Repository     
baseurl=file:///mnt/cdrom/
enabled=1  
gpgcheck=0
# =============内容结束===============
[root@localhost yum.repos.d] yum clean all
0 文件已删除
[root@localhost yum.repos.d]# yum repolist
仓库标识                                                                                         仓库名称
local                                                                                            Instructor Server Repository

通过yum命令下载依赖包
在这里插入图片描述

4 磁盘挂载-直接方式

当我们服务器用久之后,磁盘空间可能就不够用了,那么此时就可以将一块20G的硬盘挂载到我们的服务器上,依次来对我们的服务器磁盘进行扩容。

4.1 磁盘介绍

Linux硬盘设备文件
在这里插入图片描述

硬盘使用步骤:分区、格式、化挂载

lsblk   //查看机器有所有硬盘
fdisk –l 查看磁盘使用情况 
fdisk /dev/vdb

分区:

fdisk –l  # 查看当前的分区状态,确定一下哪个盘还有空间

建分区的命令:fdisk 磁盘的名字(fdisk /dev/sdb sda vda vdb)

n — new 新建分区
D— delete 删除分区
P — print 显示分区信息
w—write 保存退出
Q—quit 不保存退出

实验1:
1:新增加二块硬盘
2、在/dev/sdb新建1G主分区
1)查看硬盘

[root@venus ~]# lsblk 
NAME        MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda           8:0    0   50G  0 disk 
├─sda1        8:1    0    1G  0 part /boot
└─sda2        8:2    0   49G  0 part 
  ├─cl-root 253:0    0   47G  0 lvm  /
  └─cl-swap 253:1    0    2G  0 lvm  [SWAP]
sdb           8:16   0   20G  0 disk 
sdc           8:32   0   20G  0 disk 
sr0          11:0    1  7.7G  0 rom 

4.2 添加20G硬盘

在这里插入图片描述
一直点击下一步
在这里插入图片描述

4.2 /dev/sdb分区

[root@venus ~]# fdisk /dev/sdb
Command (m for help): n        //新建一个分区
Partition type
   p   primary (0 primary, 0 extended, 4 free)  //主分区,最多四多
   e   extended (container for logical partitions) //扩展分区
Select (default p):            回车,选择默认主分区

Using default response p.
Partition number (1-4, default 1):   回车,选择默认分区号1
First sector (2048-41943039, default 2048):  回车,选择默认硬盘最前面开始分
Last sector, +sectors or +size{K,M,G,T,P} (2048-41943039, default 41943039): +1G # 这里也可以直接回车,代表全部分配  //分区大小

Created a new partition 1 of type 'Linux' and of size 1 GiB.
ommand (m for help): p    打印分区表

Disk /dev/sdb: 20 GiB, 21474836480 bytes, 41943040 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xf2197985

Device     Boot Start     End Sectors Size Id Type
/dev/sdb1        2048 2099199 2097152   1G 83 Linux

Command (m for help): w    //保存退出

4.3 在/dev/vdb2格式化

文件系统:文件在磁盘上存、取方法,
Windows最常用NTFS、FAT32
linux常用的格式:xfs ext3 ext4 vfat fat
格式化的命令:
mkfs –t 文件系统 分区
/dev/sdb1格式化成 xfs格式

[root@venus ~]# mkfs -t xfs /dev/sdb1

/dev/sdb2格式化ext4

[root@venus ~]# mkfs -t ext4 /dev/sdb2   

4.4 挂载

mount:挂载----分区和一个目录关联过程
1)手动挂载:重启后就失效。
mount 分区 挂载点目录
例: /dev/sdb1挂载在 /c目录

[root@venus ~]# mkdir /c
[root@venus ~]# mount /dev/sdb1   /c
[root@venus ~]# df -h

Filesystem Size Used Avail Use% Mounted on
/dev/sdb1 1014M 40M 975M 4% /c

2)自动挂载(永久挂载):需要修改配置文件/etc/fstab

[root@venus ~]# vi /etc/fstab
/dev/sdb1      /c          xfs   defaults  0  0

注:
分区名或UUID 挂载点目录 文件系统 defaults 0 0
第一个数字表示是否对该设备进行备份
第二个数字表示开机时是否检查该设备。
0表示否定,1表示肯定。

[root@venus ~]#mount –a  

—马上挂载(如果出现报错请检查出错原因,执行后没报错表示挂载成功)

[root@venus ~]# df –h    --查看挂载情况

注:删除分区/dev/sdb2:
1、删除fstab 条目

[root@venus ~]# vi  /etc/fstab 

2、卸载分区

[root@venus ~]# umount /dev/sdb2          

3、删除分区/dev/vdb2

[root@venus ~]#fdisk /dev/sdb
 d # 按d回车,代表删除分区

5 硬盘挂载-逻辑卷方式(推荐)

5.1 给服务器挂100G硬盘块

在这里插入图片描述

5.2 查看硬盘块

[root@acc-test-rx-client-2 ~]# df -hT
文件系统              类型      容量  已用  可用 已用% 挂载点
devtmpfs              devtmpfs  1.4G     0  1.4G    0% /dev
tmpfs                 tmpfs     1.4G     0  1.4G    0% /dev/shm
tmpfs                 tmpfs     1.4G   73M  1.4G    6% /run
tmpfs                 tmpfs     1.4G     0  1.4G    0% /sys/fs/cgroup
/dev/mapper/klas-root xfs        64G  9.5G   55G   15% /
tmpfs                 tmpfs     1.4G   32K  1.4G    1% /tmp
/dev/loop0            iso9660   4.1G  4.1G     0  100% /mnt/cdrom
/dev/vda1             xfs      1014M  199M  816M   20% /boot
tmpfs                 tmpfs     286M     0  286M    0% /run/user/994
tmpfs                 tmpfs     286M     0  286M    0% /run/user/0
[root@acc-test-rx-client-2 ~]# 
[root@acc-test-rx-client-2 ~]# lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
loop0             7:0    0    4G  0 loop /mnt/cdrom
sr0              11:0    1 1024M  0 rom  
vda             252:0    0  100G  0 disk 
├─vda1          252:1    0    1G  0 part /boot
└─vda2          252:2    0   99G  0 part 
  ├─klas-root   253:0    0 63.9G  0 lvm  /
  ├─klas-swap   253:1    0  3.9G  0 lvm  [SWAP]
  └─klas-backup 253:2    0 31.2G  0 lvm  
vdb             252:16   0  100G  0 disk

在这里插入图片描述
【注】:如果没有看到新硬盘块,那么可以执行 rescan-scsi-bus.sh 命令让系统重新扫描盘

5.3 创建物理卷PV

[root@acc-test-rx-client-2 ~]# pvcreate /dev/vdb 
  Physical volume "/dev/vdb" successfully created.
[root@acc-test-rx-client-2 ~]# pvs
  PV         VG   Fmt  Attr PSize   PFree  
  /dev/vda2  klas lvm2 a--  <99.00g      0 
  /dev/vdb        lvm2 ---  100.00g 100.00g

5.4 创建卷组VG

[root@acc-test-rx-client-2 ~]# vgcreate qagroup /dev/vdb 
  Volume group "qagroup" successfully created
[root@acc-test-rx-client-2 ~]# vgs
  VG      #PV #LV #SN Attr   VSize    VFree   
  klas      1   3   0 wz--n-  <99.00g       0 
  qagroup   1   0   0 wz--n- <100.00g <100.00g

5.5 创建逻辑卷LV

[root@acc-test-rx-client-2 ~]# lvcreate -L +99.9G  -n qa qagroup
  Rounding up size to full physical extent 99.90 GiB
  Logical volume "qa" created.
[root@acc-test-rx-client-2 ~]# lvs
  LV     VG      Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  backup klas    -wi-a-----  31.19g                                                    
  root   klas    -wi-ao---- <63.89g                                                    
  swap   klas    -wi-ao----  <3.92g                                                    
  qa     qagroup -wi-a-----  99.90g 

5.6 格式化硬盘块

[root@acc-test-rx-client-2 ~]# mkfs -t xfs /dev/qagroup/qa 
meta-data=/dev/qagroup/qa        isize=512    agcount=4, agsize=6547200 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=1
data     =                       bsize=4096   blocks=26188800, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=12787, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

5.7 创建挂载目录

[root@acc-test-rx-client-2 ~]# mkdir /data

5.8 逻辑卷挂载到挂载目录

[root@acc-test-rx-client-2 ~]# vim /etc/fstab
# 在文件最后一行添加下面这一行
/dev/qagroup/qa /data xfs defaults 0 0

[root@acc-test-rx-client-2 ~]# mount -a

5.9 查看挂载是否成功

[root@acc-test-rx-client-2 ~]# df -hT
文件系统               类型      容量  已用  可用 已用% 挂载点
devtmpfs               devtmpfs  1.4G     0  1.4G    0% /dev
tmpfs                  tmpfs     1.4G   12K  1.4G    1% /dev/shm
tmpfs                  tmpfs     1.4G   89M  1.4G    7% /run
tmpfs                  tmpfs     1.4G     0  1.4G    0% /sys/fs/cgroup
/dev/mapper/klas-root  xfs        64G  9.4G   55G   15% /
tmpfs                  tmpfs     1.4G   32K  1.4G    1% /tmp
/dev/loop0             iso9660   4.1G  4.1G     0  100% /mnt/cdrom
/dev/vda1              xfs      1014M  199M  816M   20% /boot
tmpfs                  tmpfs     286M     0  286M    0% /run/user/994
tmpfs                  tmpfs     286M     0  286M    0% /run/user/0
/dev/mapper/qagroup-qa xfs       100G  746M  100G    1% /data

[root@acc-test-rx-client-2 ~]# lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
loop0             7:0    0    4G  0 loop /mnt/cdrom
sr0              11:0    1 1024M  0 rom  
vda             252:0    0  100G  0 disk 
├─vda1          252:1    0    1G  0 part /boot
└─vda2          252:2    0   99G  0 part 
  ├─klas-root   253:0    0 63.9G  0 lvm  /
  ├─klas-swap   253:1    0  3.9G  0 lvm  [SWAP]
  └─klas-backup 253:2    0 31.2G  0 lvm  
vdb             252:16   0  100G  0 disk 
└─qagroup-qa    253:3    0 99.9G  0 lvm  /data

6 硬盘扩容-逻辑卷方式(给根/root目录扩容100G)

6.1 说明

  1、这里得纠正一下标题,其实并不是给 /root目录扩容100G,而是给 / 目录扩容100G。因为 /root并不是挂载目录, / 才是挂载目录。/root 目录在 / 目录下。/目录扩容了,其实/root也就跟着扩容了。
   2、如果挂了100G硬盘,只给 / 目录扩容50G,例如硬盘块在/dev/vdc下,那么在创建物理卷之前,得先对硬盘块vdc进行硬盘分区,通过fdisk /dev/vdc命令创建 /dev/vdc1主分区给/dev/vdc1分配50G,最后通过pvcreate /dev/vdc1命令来创建物理卷。

6.2 挂硬盘

在这里插入图片描述

6.2 查看硬盘块

[root@acc-test-rx-client-2 ~]# lsblk
NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
loop0             7:0    0    4G  0 loop /mnt/cdrom
sr0              11:0    1 1024M  0 rom  
vda             252:0    0  100G  0 disk 
├─vda1          252:1    0    1G  0 part /boot
└─vda2          252:2    0   99G  0 part 
  ├─klas-root   253:0    0 63.9G  0 lvm  /
  ├─klas-swap   253:1    0  3.9G  0 lvm  [SWAP]
  └─klas-backup 253:2    0 31.2G  0 lvm  
vdb             252:16   0  100G  0 disk 
└─qagroup-qa    253:3    0 99.9G  0 lvm  /data
vdc             252:32   0  100G  0 disk

6.3 查看 根目录 所在的卷组和逻辑卷

[root@acc-test-rx-client-2 ~]# df -hT
文件系统               类型      容量  已用  可用 已用% 挂载点
devtmpfs               devtmpfs  1.4G     0  1.4G    0% /dev
tmpfs                  tmpfs     1.4G   12K  1.4G    1% /dev/shm
tmpfs                  tmpfs     1.4G  105M  1.3G    8% /run
tmpfs                  tmpfs     1.4G     0  1.4G    0% /sys/fs/cgroup
/dev/mapper/klas-root  xfs        64G  9.4G   55G   15% /
tmpfs                  tmpfs     1.4G   32K  1.4G    1% /tmp
/dev/loop0             iso9660   4.1G  4.1G     0  100% /mnt/cdrom
/dev/vda1              xfs      1014M  199M  816M   20% /boot
tmpfs                  tmpfs     286M     0  286M    0% /run/user/994
tmpfs                  tmpfs     286M     0  286M    0% /run/user/0
/dev/mapper/qagroup-qa xfs       100G  746M  100G    1% /data
[root@acc-test-rx-client-2 ~]# lvs
  LV     VG      Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  backup klas    -wi-a-----  31.19g                                                    
  root   klas    -wi-ao---- <63.89g                                                    
  swap   klas    -wi-ao----  <3.92g                                                    
  qa     qagroup -wi-ao----  99.90g

根据上面目录打印内容可知,
/根目录 所在的逻辑卷位置:/dev/mapper/klas-root,
逻辑卷名称:root
卷组名称:klas

6.4 创建物理卷

[root@acc-test-rx-client-2 ~]# pvcreate /dev/vdc 
  Physical volume "/dev/vdc" successfully created.
[root@acc-test-rx-client-2 ~]# pvs
  PV         VG      Fmt  Attr PSize    PFree  
  /dev/vda2  klas    lvm2 a--   <99.00g      0 
  /dev/vdb   qagroup lvm2 a--  <100.00g  96.00m
  /dev/vdc           lvm2 ---   100.00g 100.00g

6.5 卷组扩容

[root@acc-test-rx-client-2 ~]# vgextend  klas /dev/vdc 
  Volume group "klas" successfully extended
[root@acc-test-rx-client-2 ~]# vgs
  VG      #PV #LV #SN Attr   VSize    VFree   
  klas      2   3   0 wz--n-  198.99g <100.00g
  qagroup   1   1   0 wz--n- <100.00g   96.00m

6.6 逻辑卷扩容

#(下面两行命令效果一样,选其中一个执行即可,路径都是软连接)
# [root@acc-test-rx-client-2 ~]# lvextend -L +99.9G /dev/mapper/klas-root 此命令和下面一行命令效果一样。
[root@acc-test-rx-client-2 ~]# lvextend -L +99.9G /dev/klas/root 
  Rounding size to boundary between physical extents: 99.90 GiB.
  Size of logical volume klas/root changed from <63.89 GiB (16355 extents) to <163.79 GiB (41930 extents).
  Logical volume klas/root successfully resized.

#让扩容生效(下面两行命令效果一样,选其中一个执行即可,路径都是软连接)
# [root@acc-test-rx-client-2 ~]# xfs_growfs /dev/mapper/klas-root 
[root@acc-test-rx-client-2 ~]# xfs_growfs /dev/klas/root 
meta-data=/dev/mapper/klas-root  isize=512    agcount=4, agsize=4186880 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=1
data     =                       bsize=4096   blocks=16747520, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=8177, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 16747520 to 42936320

【注】:如果是ext4类型,扩容后用resize2fs让其生效。

6.7 查看扩容结果

[root@acc-test-rx-client-2 ~]# df -hT
文件系统               类型      容量  已用  可用 已用% 挂载点
devtmpfs               devtmpfs  1.4G     0  1.4G    0% /dev
tmpfs                  tmpfs     1.4G   12K  1.4G    1% /dev/shm
tmpfs                  tmpfs     1.4G  121M  1.3G    9% /run
tmpfs                  tmpfs     1.4G     0  1.4G    0% /sys/fs/cgroup
/dev/mapper/klas-root  xfs       164G   11G  154G    7% /
tmpfs                  tmpfs     1.4G   32K  1.4G    1% /tmp
/dev/loop0             iso9660   4.1G  4.1G     0  100% /mnt/cdrom
/dev/vda1              xfs      1014M  199M  816M   20% /boot
tmpfs                  tmpfs     286M     0  286M    0% /run/user/994
tmpfs                  tmpfs     286M     0  286M    0% /run/user/0
/dev/mapper/qagroup-qa xfs       100G  746M  100G    1% /data

可以看到

# 扩容前
/dev/mapper/klas-root  xfs        64G  9.4G   55G   15% /

# 扩容后
/dev/mapper/klas-root  xfs       164G   11G  154G    7% /

7 逻辑卷迁移

多个磁盘组成逻辑卷挂在到服务器上,那么当原有服务器报废前,需要将多个磁盘组成的逻辑卷从旧服务器迁移到新服务器上,从而保证后续新服务器能对数据的正常读写。
这里通过两台服务器进行演示:

  • server1:模拟旧服务器,server1上有个逻辑卷,该逻辑卷由两块磁盘组成,均为1GB;
  • sercer2:模拟新服务器。

server1磁盘最初情况:

[root@server1 ~]# lsblk
NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda      8:0    0   30G  0 disk 
├─sda1   8:1    0  300M  0 part /boot
├─sda2   8:2    0  2.1G  0 part [SWAP]
└─sda3   8:3    0 27.6G  0 part /
sr0     11:0    1 1024M  0 rom 

server2磁盘最初情况:

[root@server2 ~]# lsblk
NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda      8:0    0   30G  0 disk 
├─sda1   8:1    0  300M  0 part /boot
├─sda2   8:2    0  2.1G  0 part [SWAP]
└─sda3   8:3    0 27.6G  0 part /
sr0     11:0    1 1024M  0 rom

7.1 创建硬盘

Server1创建两块大小为1GB的硬盘,如图
在这里插入图片描述

7.2 创建逻辑卷并挂载

#查看磁盘情况(如果没有显示新硬盘,那么可以重启server1服务器)
[root@server1 ~]# lsblk
NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda      8:0    0   30G  0 disk 
├─sda1   8:1    0  300M  0 part /boot
├─sda2   8:2    0  2.1G  0 part [SWAP]
└─sda3   8:3    0 27.6G  0 part /
sdb      8:16   0    1G  0 disk 
sdc      8:32   0    1G  0 disk 
sr0     11:0    1 1024M  0 rom 

#创建物理卷
[root@server1 ~]# pvcreate /dev/sdb /dev/sdc
  Physical volume "/dev/sdb" successfully created.
  Physical volume "/dev/sdc" successfully created.
  
#查看物理卷
[root@server1 ~]# pvs
  PV         VG   Fmt  Attr PSize    PFree   
  /dev/sdb   myvg lvm2 a--  1020.00m 1020.00m
  /dev/sdc   myvg lvm2 a--  1020.00m 1020.00m
  
#创建卷组
[root@server1 ~]# vgcreate myvg /dev/sdb /dev/sdc
  Volume group "myvg" successfully created
  
#查看卷组
[root@server1 ~]# vgs
  VG   #PV #LV #SN Attr   VSize VFree
  myvg   2   0   0 wz--n- 1.99g 1.99g

#创建逻辑卷
[root@server1 ~]# lvcreate -L +1.99G -n mylv myvg 
  Rounding up size to full physical extent 1.99 GiB
  Logical volume "mylv" created.

#查看逻辑卷
[root@server1 ~]# lvs
  LV   VG   Attr       LSize Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  mylv myvg -wi-a----- 1.99g       

#格式化逻辑卷                                             
[root@server1 ~]# mkfs -t xfs /dev/mapper/myvg-mylv 
meta-data=/dev/mapper/myvg-mylv  isize=512    agcount=4, agsize=130560 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=522240, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

#添加挂载配置
[root@server1 ~]# echo "/dev/myvg/mylv /data xfs defaults 0 0" >> /etc/fstab
#让配置生效
[root@server1 ~]# mount -a

#查看挂载情况
[root@server1 ~]# df -hT
文件系统              类型      容量  已用  可用 已用% 挂载点
devtmpfs              devtmpfs  965M     0  965M    0% /dev
tmpfs                 tmpfs     980M     0  980M    0% /dev/shm
tmpfs                 tmpfs     980M   10M  970M    2% /run
tmpfs                 tmpfs     980M     0  980M    0% /sys/fs/cgroup
/dev/sda3             xfs        28G  4.6G   23G   17% /
/dev/sda1             xfs       297M  163M  134M   55% /boot
tmpfs                 tmpfs     196M     0  196M    0% /run/user/0
/dev/mapper/myvg-mylv xfs       2.0G   33M  2.0G    2% /data

#往挂载目录存放一些文件。用于测试逻辑卷迁移后数据依然存在
[root@server1 ~]# cp -r /etc/profile /data/
[root@server1 ~]# ll /data/
总用量 4
-rw-r--r-- 1 root root 1819 1118 05:37 profile

7.3 旧服务器逻辑卷导出

#注释掉挂载配置
[root@server1 ~]# sed -i '/mylv/s/^/#/' /etc/fstab

#卸载逻辑卷的挂载目录
[root@server1 ~]# umount /data

#查看卸载后的挂载情况
[root@server1 ~]# df -hT
文件系统       类型      容量  已用  可用 已用% 挂载点
devtmpfs       devtmpfs  965M     0  965M    0% /dev
tmpfs          tmpfs     980M     0  980M    0% /dev/shm
tmpfs          tmpfs     980M   10M  970M    2% /run
tmpfs          tmpfs     980M     0  980M    0% /sys/fs/cgroup
/dev/sda3      xfs        28G  4.6G   23G   17% /
/dev/sda1      xfs       297M  163M  134M   55% /boot
tmpfs          tmpfs     196M     0  196M    0% /run/user/0

#操作前查看逻辑卷和卷组情况
[root@server1 ~]# lvs
  LV   VG   Attr       LSize Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  mylv myvg -wi-a----- 1.99g                                                    
[root@server1 ~]# vgs
  VG   #PV #LV #SN Attr   VSize VFree
  myvg   2   1   0 wz--n- 1.99g    0 
  
#让逻辑卷处于非激活状态
[root@server1 ~]# lvchange -an /dev/myvg/mylv 
#让卷组处于非激活状态
[root@server1 ~]# vgchange -an myvg
  0 logical volume(s) in volume group "myvg" now active
#导出卷组
[root@server1 ~]# vgexport myvg
  Volume group "myvg" successfully exported
  
  #此时再次查看卷组和逻辑卷
[root@server1 ~]# vgs
  VG   #PV #LV #SN Attr   VSize VFree
  myvg   2   1   0 wzx-n- 1.99g    0 
[root@server1 ~]# lvs
  Volume group myvg is exported

7.4 旧服务器磁盘卸载,新服务器磁盘挂载

旧服务器卸载掉那两块硬盘:如下图
在这里插入图片描述

新服务器Server2导入 Server1卸载掉的两块磁盘:如下图
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

7.5 新服务器逻辑卷导入

#当2块硬盘挂载到新服务器server2后
#查看磁盘情况(如果没有显示新硬盘,那么可以重启server2服务器)
[root@server2 ~]# lsblk
NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda      8:0    0   30G  0 disk 
├─sda1   8:1    0  300M  0 part /boot
├─sda2   8:2    0  2.1G  0 part [SWAP]
└─sda3   8:3    0 27.6G  0 part /
sdb      8:16   0    1G  0 disk 
sdc      8:32   0    1G  0 disk 
sr0     11:0    1 1024M  0 rom  

#查看卷组和逻辑卷
[root@server2 ~]# vgs
  VG   #PV #LV #SN Attr   VSize VFree
  myvg   2   1   0 wzx-n- 1.99g    0 
[root@server2 ~]# lvs
  Volume group myvg is exported
  
#导入卷组
[root@server2 ~]# vgimport myvg
  Volume group "myvg" successfully imported
#激活卷组
[root@server2 ~]# vgchange -ay myvg
  1 logical volume(s) in volume group "myvg" now active
 #激活逻辑卷
[root@server2 ~]# lvchange -ay /dev/myvg/mylv

#再次查看卷组和逻辑卷 
[root@server2 ~]# vgs
  VG   #PV #LV #SN Attr   VSize VFree
  myvg   2   1   0 wz--n- 1.99g    0 
[root@server2 ~]# lvs
  LV   VG   Attr       LSize Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  mylv myvg -wi-a----- 1.99g

#创建挂载目录
[root@server1 ~]# mkdir /data

#修改挂载配置
[root@server1 ~]# echo "/dev/myvg/mylv /data xfs defaults 0 0" >> /etc/fstab

#让配置生效
[root@server1 ~]# mount -a

#查看挂载情况
[root@server2 ~]# df -hT
文件系统              类型      容量  已用  可用 已用% 挂载点
devtmpfs              devtmpfs  965M     0  965M    0% /dev
tmpfs                 tmpfs     980M     0  980M    0% /dev/shm
tmpfs                 tmpfs     980M   10M  970M    2% /run
tmpfs                 tmpfs     980M     0  980M    0% /sys/fs/cgroup
/dev/sda3             xfs        28G  4.6G   23G   17% /
/dev/sda1             xfs       297M  163M  134M   55% /boot
tmpfs                 tmpfs     196M     0  196M    0% /run/user/0
/dev/mapper/myvg-mylv xfs       2.0G   33M  2.0G    2% /data

#最后检查逻辑卷中的数据是否存在
[root@server2 ~]# ll /data/
总用量 4
-rw-r--r-- 1 root root 1819 1118 05:37 profile

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值