大白话讲【3.1】redhat 9 -LVM

LVM技术出现由来


   说白了,就是文件系统容量怎么实现无感伸缩。
定义:LVM(Logical volume Manager)逻辑卷管理通过将底层物理硬盘抽象封装起来,以逻辑卷的形式表现给上层系统,逻辑卷的大小可以动态调整,而且不会丢失现有数据。新加入的硬盘也不会改变现有上层的逻
辑卷。


   LVM基本的四个概念


PE (physical Extend)物理扩展 --->逻辑卷空间管理最小单位,默认4M大小
PV (physical volume)物理卷
VG (volume group) 卷组 --->空间池用来装PE
LV (logical volume)逻辑卷  ---> 操作系统所使用的逻辑卷,取代原本的分区
/dev/vgname/lvname
  1.物理磁盘被格式化为pv,空间被分为一个个PE
  2.不同的PV加入同一个VG,不同PV的PE全部进入VG的池内
  3.LV基于PE创建,大小为PE的整数倍,组成LV的PE可能来自不同物理磁盘
  4.LV现在就直接可以格式化后挂载使用了
  5.LV的扩充缩减实际上就是增加或减少组成该LV的PE的数量。其过程不丢失原始数据。

创建LVM


1.将物理磁盘设备初始化为物理卷 pvcreate /dev/sdb /dev/sdc
2.创建卷组,并将PV加入卷组中 vgcreate linuxcast /dev/sdb /dev/sdc
3. 基于卷组创建逻辑卷 lvcreate -n mylv -L 3G linuxcast
4.为创建好的逻辑卷创建文件系统 mkfs.ext4 /dev/linuxcast/mylv
5.将格式化好的逻辑卷挂载使用 mount /dev/linuxcast/mylv /mnt
查看LVM
可以通过一下命令查看LVM相关信息:
查看物理卷信息:
pvdisplay(详细)
pvs
查看卷组信息:
vgdisplay(详细)
vgs
查看逻辑卷信息
lvdisplay(详细)
lvs


删除LVM


1.删除LV lvremove /dev/linuxcast/mylv
2.删除VG vgremove linuxcast
3.删除物理卷 pvremove /dev/sdb

--------------------------
拉伸一个逻辑卷
逻辑卷的拉伸操作可以在线执行,不需要卸载逻辑卷
1.保证VG中有足够的空闲空间  vgdisplay   --引申VG拉伸
2.扩充逻辑卷 lvextend -L +1G /dev/vgname/lvname
3.查看扩充后LV大小 lvdisplay
4.更新文件系统 resize2fs /dev/vgname/lvname
5.查看更新后文件系统 df -h
拉伸一个卷组VG
1.将要添加到VG的硬盘格式化为PV    pvcreate /dev/sdd
2.将新的PV添加到指定卷组中 vgextend linuxcast /dev/sdd
3.查看扩充后VG大小  vgdisplay
---------------------
缩小一个逻辑卷(逻辑卷的缩小操作必须离线执行umount要卸载逻辑卷,否则数据丢失
1.卸载已经挂载的逻辑卷 umount /dev/vgname/lvname
2.缩小文件系统(会提示需要运行fsck检查文件系统)resize2fs /dev/vgname/lvname 1G
3.缩小LV lvreduce -L -1G /dev/vgname/lvname
4.查看缩小后的LV lvdisplay
5.挂载 mount /dev/vgname/lvname /mnt
缩小一个卷组VG(从系统中抽走一块硬盘)
1.将一个PV从制定卷组中移除 vgreducelinuxcast /dev/sdd
2.查看缩小后的卷组大小 vgdisplay
 

  • 15
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
卷积神经网络(CNN)是一种常用于图像处理和模式识别的深度学习模型。它的设计灵感来自于生物学中视觉皮层的神经元结构。为了用通俗的语言解释CNN,我们可以用以下方式来理解它: 假设你要识别一张猫的图片。首先,你的大脑会将这张图片的像素点转化成一系列数字,并且记录下它们的位置和颜色。然后,大脑会将这些数字输入到“卷积层”中。 在卷积层中,会有很多个“过滤器”。这些过滤器可以视为一双眼睛,它们通过抓取图片的不同特征来帮助你识别物体。每个过滤器都在图片上滑动并计算一个“特征图”,这个特征图描述了所检测到的特定特征。例如,一个过滤器可以检测到猫的边缘,另一个可以检测到猫的颜色等等。当所有过滤器完成计算后,就会得到一些不同的特征图。 在“池化层”中,每个特征图都会被压缩,去除一些不重要的信息。这样可以减少需要计算的数据量,并且使得特征更加鲁棒和不变形。 最后,在全连接层中,所有的特征图都被连接起来,形成一个巨大的向量。接下来,这个向量会通过一些神经元节点,最终输出识别结果,也就是“这是一张猫的图片”。 CNN的一个重要特点是参数共享,这意味着每个过滤器会在整个图片上进行计算,而不仅仅是某个局部区域。这样可以减少需要计算的参数量,提高训练速度和模型的泛化能力。 总结一下,CNN通过卷积层来提取图像的特征,并通过池化层降低特征的维度。最后,通过全连接层将所有特征连接起来并输出结果。这种结构使得CNN非常适合于图像分类和识别任务。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值