通过部署sp3_2403麒麟操作系统学习RAID和网络部署
操作系统具体流程:
1.清盘(对挂载点进行卸载以及清除磁盘数据)(对原操作系统进行此操作)
卸载命令:umount
清除磁盘数据:
dd if=/dev/zero of=/xxx/xxx bs=1M count=1024 oflag=direct
2.重启F12进行BIOS配置(主要为:RAID配置系统盘和删除原先设置磁盘)
RIAD:将数块磁盘进行绑定为一个逻辑单元,目的是提高性能和容错能力。
这和RIAD模式有关。RIAD1通常为用为系统盘,RIAD5通常作为数据盘。
例如:将两块磁盘使用RIAD1模式作为一块磁盘(系统盘),当一块磁盘出现故障,另一块磁盘立即接管,将数据完全复制到该盘。
3.对BIOS配置完成后进行操作系统镜像文件映射,然后重启
4.重启后设置数据盘,即:将系统所有nvme磁盘做一个软RIAD为md5,共6个nvme盘,已合并5个
查看md5具体详情
最后合并nvme2n0出现报错,显示该设备忙碌
进行检查该nvme2n1磁盘的mount挂载和lsof进程占用检查,但均没有输出。
查看发现还有另一个RIAD为md127
查看该md127具体信息,发现nvme2n1被该md127作为RAID0占用
删除该md127并检查是否完全删除
删除nvme2n0上md127残留的超级块后将nvme2n0合并到md5
对md5进行挂载操作,发现报错
重点:
格式化盘:nvme format /dev/nvme0n1 -l 0
功能:对 NVMe 固态硬盘 /dev/nvme0n1 执行低级格式化,彻底擦除磁盘上的所有数据,并重置为出厂时的块大小和元数据配置。
mdadm --create /dev/md10 --level=raid10 --raid-devices=4 /dev/nvme0n1 /dev/nvme1n1 /dev/nvme2n1 /dev/nvme3n1
mdadm --detail --scan /dev/md10 >> /etc/mdadm.conf
作用:更新系统的 RAID 配置文件,确保与当前 RAID 阵列状态一致。
mdadm --grow --bitmap=none /dev/md10(通常会报错)
mkfs.xfs /dev/md10
mount /dev/md10 /opt/qfusion
blkid
vi /etc/fstab
UUID=xxxxxxxx /opt/qfusion xfs defaults 0 0
mount -a
#删除软raid/mdraid:
cat /proc/mdstat
查看当前系统上的所有RAID信息
mdadm --stop md10
删除系统上的某个RAID
#vgremove VolGroup -f
mdadm --zero-superblock /dev/nvme0n1
作用:擦除磁盘 /dev/nvme0n1 上的 RAID 超级块(Superblock),使其不再被识别为 RAID 成员盘。磁盘曾属于某个 RAID 阵列(如 /dev/md0),现在需要重新使用。例如以上例子中,/dev/nvme2n0首次合并md5失败是因为被/dev/nvme2n0被md127使用,在对md127进行删除后第二次合并失败是因为/dev/nvme2n0上还残留有md127的超级块(Superblock),需要擦除超级块后才能被mdadm重新使用。
vi /etc/mdadm.conf
PS:需要注意,本例子中的是在对nvme2n0进行合并md5时候,发现报错并且通过mount | grep nvme2n0和lsof /dev/nvme2n0检查均没有报错,最后/proc/mdstat发现还有个软RAID0—md127使用nvme2n0,并且在删除md127后,将nvme2n0合并到md5再挂载md5,这时候仍然报错,所以操作步骤是删除md5和md127,重新生成软RAID5—md5:
- 删除软RIAD——md127
- 删除软RIAD——md5
- 对/dev/nvme0n1擦除残留超级块
- 格式化所有的nvme盘
- 重新创建软RIAD——md5
- 格式化软RIAD——md5文件系统,挂载,持久挂载
- Lsblk查看
1.rm -f /etc/mdadm.conf
2.vim /etc/fstab
3.df -h