记一次群晖7.2使用ssd作为存储池

本文详细描述了一位用户在DS920+NAS设备上使用DSM7.2操作系统,通过mdadm命令行工具创建RAID阵列的过程。用户遇到了RAID在重启后丢失的问题,通过编辑mdadm.conf配置文件和调整系统启动脚本来解决这个问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

感谢Might-Zhang ??的评论,测试完好使
DS920+
DSM 7.2-64570

不稳定,不好用,直接挂载目录完事

  1. 创建挂载目录
    mdadm --create /dev/md3 --level=0 --raid-devices=2 --force /dev/nvme0n1 /dev/nvme1n1
    mkfs.ext4 -F /dev/md3
    
  2. 使用自带的任务计划,添加开机任务,root
    mdadm --assemble /dev/md3 /dev/nvme0n1 /dev/nvme1n1
    mount /dev/md3 /volume1/nvme
    

原文


查看ssd

xiusifeng@NAS:/$ sudo -i
Password:
root@NAS:~# ls /dev/nvme*
/dev/nvme0 /dev/nvme0n1 /dev/nvme1 /dev/nvme1n1

创建分区

synopartition --part /dev/nvme0n1 12 # 按照提示输入y
synopartition --part /dev/nvme1n1 12

# 完成后使用fdisk查看
root@NAS:~# fdisk查看 -l /dev/nvme0n1
Disk /dev/nvme0n1: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: WDC WDS100T2B0C
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xc3c0fe54

Device         Boot   Start        End    Sectors  Size Id Type
/dev/nvme0n1p1           63    4980149    4980087  2.4G fd Linux raid autodetect
/dev/nvme0n1p2      4980150    9173114    4192965    2G fd Linux raid autodetect
/dev/nvme0n1p3      9430155 1953520064 1944089910  927G fd Linux raid autodetect

查看现有raid状态

root@NAS:~# cat /proc/mdstat
Personalities : [raid1][raid10]
md2 : active raid0 nvme0n1p3[0] nvme1n1p3[1]
      1944087808 blocks super 1.2 64k chunks [2/2] [UU]

md1 : active raid1 sata1p2[0] sata4p2[3] sata3p2[2] sata2p2[1]
      2097088 blocks [6/4] [UUUU__]

md0 : active raid1 sata1p1[0] sata4p1[3] sata3p1[2] sata2p1[1]
      8388544 blocks [6/4] [UUUU__]

unused devices: <none>

使用ssd创建raid

mdadm --create /dev/md3 --level=0 --raid-devices=2 --force /dev/nvme0n1p3 /dev/nvme1n1p3
# 命令解释
mdadm --create /dev/md[根据md的后缀值递增] --level=[raid模式] --raid-devices=[ssd个数] --force [ssd分区路径] [ssd分区路径]

创建文件系统

# 二选一
mkfs.btrfs -f /dev/md3
mkfs.ext4 -F /dev/md3

最后

reboot
重启
登录群晖
进入存储管理器
选择新建的存储池
在线重组

根据找到的教程操作,自此结束,然后致命问题来了

问题记录-重启后新建的raid丢失

找遍了网络,最终也没找到解决办法,只好转变一下思路,从mdadm命令入手碰碰运气

配置mdadm.conf配置文件

root@NAS:~# echo Device /dev/nvme0n1 /dev/nvme1n1 >> /etc/mdadm.conf
root@NAS:~# mdadm --detail --scan > /etc/mdadm.conf

# 删除群晖自身的mdadm配置,仅保留自己的,修改后如下
root@NAS:~# cat /etc/mdadm.conf
DEVICE  /dev/nvme0n1p3 /dev/nvme1n1p3
ARRAY /dev/md3 metadata=1.2 name=NAS:2 UUID=3619c7ee:b6b92ebe:c6f4c698:08c30b3d

自启时加载mdadm

root@NAS:~# vim /etc/rc.sysinit
root@NAS:~# cat /etc/rc.sysinit
mdadm -As

# 修改权限
root@NAS:~# chmod 755 /etc/rc.sysinit
root@NAS:~# ls -l /etc/rc.sysinit
-rwxr-xr-x 1 root root 10 Apr 12 22:24 /etc/rc.sysinit

最后的最后

参照最后操作即可

### 黑群晖7.2 NAS 狭窄问题解决方案 #### 一、硬件兼容性问题 当遇到某些特定硬件不被黑群晖7.2识别的情况,如M.2 SSD未显示,这可能是由于所选NAS型号官方并不支持该类设备所致。对于此类情况,可以通过更改系统机型来解决问题。例如,将DS918+变更为DS923+, 这种变更能够有效提升对新型存储介质的支持度[^2]。 #### 二、安装过程中引导失败 针对实体机上部署黑群晖7.2时可能出现的引导加载难题,推荐采用内置硬作为启动源的方法完成初次设置流程。此方法简化了传统U引导方式可能引发的一系列复杂状况,使得整个过程更加顺畅快捷[^1]。 #### 三、磁空间不足 面对现有分配给系统的默认50GB不足以满足需求的情形,有两种可行策略可供选择:一是直接增加额外物理/虚拟硬;二是先通过编辑虚拟机属性扩大原有驱动器尺寸后再于操作系统内部创建新的卷组或扩充已有者。值得注意的是,在执行后者操作之前务必谨慎行事以免造成不必要的麻烦[^4]。 ```bash # 扩展虚拟磁命令示例(适用于VMware环境) vmkfstools -X 新增大小 /path/to/existing.vmdk ``` #### 四、数据迁移与备份恢复挑战 一旦决定更换不同架构下的服务器平台或是大幅调整当前配置参数设定,那么事先好充分准备就显得尤为重要——即确保所有重要文件均已妥善保存至外部媒介之中以防万一发生意外丢失事件。幸运的是,根据已知信息得知即便是在经历完全重装之后也能完好无损地保持住原先的数据结构不变,前提是磁碟本身并未遭受任何损害。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值