查看磁盘情况 df -Th
查看到sdd、sde、sdf磁盘未使用,然后使用lsblk --fs查看所有磁盘的UUID,结果查询到磁盘UUID一至
通过查看pv有告警提示,说个磁盘的UUID导致LVM报错
通过上面的报错sdc、sdd、sde和sdf这些设备的UUID(Universally Unique Identifier)一样,意味着它们实际上是同一个物理设备的不同路径,可能是由于多路径配置或者某种设备映射错误导致的。处理这个问题通常涉及以下几个步骤:
1、确认多路径配置:
如果系统配置了多路径I/O(MPIO),那么这些设备可能是同一个存储阵列的不同路径。确保multipath服务正在运行,并且正确配置了这些设备的多路径。
2、检查设备映射:
使用lsblk、blkid或fdisk -l命令来检查这些设备的分区和UUID。确认它们是否真的是同一个设备的不同表示。
3、处理多路径设备:
如果确认是多路径配置问题,确保multipath配置正确,并且只有一个路径被LVM使用。可以通过multipath -ll查看多路径设备的状态,并使用multipath命令进行配置更改。
使用multipath -ll查看多磁盘情况,发现没有服务
DM multipath 内核驱动未加载。
/etc/multipath.conf 配置文件不存在,因此所有设备都被列入了黑名单。
开启multipath服务:
步骤 1:加载 DM multipath 内核驱动
lsmod | grep dm_mul
如果输出中没有显示 dm_multipath,则需要加载该模块:
modprobe dm_multipath
要使这个更改在重启后仍然生效,需要在 /etc/modules 文件或 /etc/modules-load.d/ 目录下的文件中添加 dm_multipath。
步骤 2:创建或修改 /etc/multipath.conf 配置文件
由于 /etc/multipath.conf 文件不存在,需要创建一个。可以使用 mpathconf 命令来生成一个默认的配置文件作为起点:
/sbin/mpathconf --enable --with_multipathd y --find_multipaths y
这个命令会生成一个基本的 multipath.conf 文件,并启用 multipathd 守护进程以及自动发现 multipath 设备。根据您的存储配置,您可能需要进一步自定义这个文件。
步骤 3:重启 multipath 服务
在修改了配置文件后,您需要重启 multipathd 服务来应用更改:
systemctl restart multipathd
systemctl enable multipathd
步骤 4:检查 multipath 状态和设备
重启服务后,再次运行 multipath -ll 来检查 multipath 的状态和设备列表。
此时磁盘都正常运行,重新挂载lvm即可