群晖 920+四盘位,之前 1 & 2 盘位用了 2T 组 SHR 成存储池 2 ,3 & 4 盘位组 raid0 成存储池 1 ; 前段时间觉得没必要数据保护,就把 2 盘位硬盘拆下来,将存储池 2 手动降级成了无数据保护 SHR ,淘了块 14T 二手企业硬盘准备加进存储池 1 (脑抽的开始); 网上搜了一圈,发现 raid0 扩容好像是不可能的,但在 CSDN 看到有篇文章说扩容成功了,就抱着侥幸心理进行了以下操作:
mdadm --grow /dev/md2 --raid-devices=3 --add /dev/sata4
执行成功,同时开始了时长两周的空间重建,过程/proc/mdstat 信息如下:
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4] [raidF1] md3 : active raid1 sata3p5[0] 2925435456 blocks super 1.2 [1/1] [U] md2 : active raid4 sata4[3] sata1p3[0] sata2p3[1] 23428126720 blocks super 1.2 level 4, 64k chunk, algorithm 5 [4/3] [UU__] [==================>..] reshape = 93.0% (10902819456/11714063360) finish=426.7min speed=31685K/sec md4 : active raid1 nvme0n1p1[0] 488381952 blocks super 1.2 [1/1] [U] md1 : active raid1 sata1p2[1] sata3p2[3] sata2p2[2] 2097088 blocks [4/3] [_UUU] md0 : active raid1 sata1p1[1] sata3p1[3] sata2p1[2] 2490176 blocks [4/3] [_UUU]
昨晚成功后,群晖报无法重组,mdadm -D /dev/md2 查看信息,显示如下:
/dev/md2: Version : 1.2 Creation Time : Thu Feb 17 21:02:49 2022 Raid Level : raid0 Array Size : 35142190080 (33514.20 GiB 35985.60 GB) Raid Devices : 3 Total Devices : 3 Persistence : Superblock is persistent Update Time : Tue Jan 21 23:28:13 2025 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Chunk Size : 64K Name : Stone_NAS:2 (local to host Stone_NAS) UUID : fb1ab0ae:6e5622c3:6b01e711:3ce01664 Events : 425749 Number Major Minor RaidDevice State 0 8 3 0 active sync /dev/sata1p3 1 8 19 1 active sync /dev/sata2p3 3 8 48 2 active sync /dev/sata4
我寻思着既然已经添加进去了,群晖显示无法在线重组,那我就来重启下看看吧,于是悲剧发生了,存储池 1 直接显示丢失,硬盘 3 、4 显示已检测到,但是硬盘 2 显示无法访问系统分区。
Personalities : [raid1] md4 : active raid1 nvme0n1p1[0] 488381952 blocks super 1.2 [1/1] [U] md3 : active raid1 sata3p5[0] 2925435456 blocks super 1.2 [1/1] [U] md1 : active raid1 sata1p2[1] sata3p2[3] sata2p2[2] 2097088 blocks [4/3] [_UUU] md0 : active raid1 sata1p1[1] sata3p1[3] sata2p1[2] 2490176 blocks [4/3] [_UUU]
现在用 mdadm 无法查看到/dev/md2 的信息,请问大佬们,存储池 1 还有没有救,可以的话应该怎么操作?拜谢各位大佬!
又看了下群晖正常的raid信息,md0应该包含所有硬盘的sata*p1,我这个md0里面的sata4p1应该是群晖自动创建的。
/dev/md0: Version : 0.90 Creation Time : Thu Feb 17 20:28:33 2022 Raid Level : raid1 Array Size : 2490176 (2.37 GiB 2.55 GB) Used Dev Size : 2490176 (2.37 GiB 2.55 GB) Raid Devices : 4 Total Devices : 4 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Thu Jan 23 09:37:20 2025 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 UUID : af8fe441:25ce4536:05d949f7:b0bbaec7 Events : 0.950645 Number Major Minor RaidDevice State 0 8 49 0 active sync /dev/sata4p1 1 8 1 1 active sync /dev/sata1p1 2 8 17 2 active sync /dev/sata2p1 3 8 33 3 active sync /dev/sata3p1
md1应该包含所有硬盘的sata*p2
/dev/md1: Version : 0.90 Creation Time : Thu Feb 17 20:28:36 2022 Raid Level : raid1 Array Size : 2097088 (2047.94 MiB 2147.42 MB) Used Dev Size : 2097088 (2047.94 MiB 2147.42 MB) Raid Devices : 4 Total Devices : 3 Preferred Minor : 1 Persistence : Superblock is persistent Update Time : Wed Jan 22 18:58:24 2025 State : clean, degraded Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 UUID : 829a277c:9fabaf79:05d949f7:b0bbaec7 Events : 0.296 Number Major Minor RaidDevice State - 0 0 0 removed 1 8 2 1 active sync /dev/sata1p2 2 8 18 2 active sync /dev/sata2p2 3 8 34 3 active sync /dev/sata3p2
正常的数据应该是sata*p3加到创建的存储池,但md2被我加成了sata4
/dev/md2: Version : 1.2 Creation Time : Thu Feb 17 21:02:49 2022 Raid Level : raid0 Array Size : 35142190080 (33514.20 GiB 35985.60 GB) Raid Devices : 3 Total Devices : 3 Persistence : Superblock is persistent Update Time : Tue Jan 21 23:28:13 2025 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Chunk Size : 64K Name : Stone_NAS:2 (local to host Stone_NAS) UUID : fb1ab0ae:6e5622c3:6b01e711:3ce01664 Events : 425749 Number Major Minor RaidDevice State 0 8 3 0 active sync /dev/sata1p3 1 8 19 1 active sync /dev/sata2p3 3 8 48 2 active sync /dev/sata4
使用fdisk -l查看sata4信息如下:
Disk /dev/sata4: 14.6 TiB, 16000900661248 bytes, 31251759104 sectors Disk model: WUH721816ALE6L4 Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: dos Disk identifier: 0x3353a82e Device Boot Start End Sectors Size Id Type /dev/sata4p1 2048 4294967294 4294965247 2T 83 Linux
![]() | 1 IsA26hN4DcQDS7Z9 261 天前 via iPhone ![]() 白群问客服 |
![]() | 2 hicdn 260 天前 via Android ![]() 楼上说的对,白的问客服,转技术支持。高价硬件里包含了技术支持的费用。 |
![]() | 4 vibbow 260 天前 ![]() 你的原始 md2 是 raid 4 ,然后你对 md2 做了 grow 然而... https://man7.org/linux/man-pages/man8/mdadm.8.html#For_create,_build,_or_grow: --raid-devices It is never allowed for RAID4, RAID5 or RAID6. |
![]() | 5 vibbow 260 天前 ![]() |
![]() | 6 vibbow 260 天前 ![]() 还有一种可能性 NAS 会自动创建系统分区(并加到系统盘的 raid1 里) 你看你的 md0 和 md1 ,都是现有硬盘的分区 但是你的硬盘 2 已经有一个分区(并且被 mdadm 占用),所以创建这个分区失败,所以提示 硬盘 2 无法访问系统分区。 你现在需要把你的硬盘 2 拔下来插电脑上,看看上面的分区状态是什么,如果是无分区(并且有 mdadm 的 superblock ),那么可能还有的救。 如果已经被 NAS 自动分区了,那就 GG 了,你现在的 RAID 0 也没了。 |
7 alfawei 260 天前 ![]() 你这个是就是瞎操作,数据没有备份就折腾。 raid1 拿掉一个硬盘还行,raid0 也折腾 |
![]() | 8 stong2 OP @vibbow 我翻了下最开始的记录,md2 是 raid0 ,使用了 grow 之后,过程中显示是 raid4 ,grow 成功后显示成 raid0 ; 但是看了下好像群晖的硬盘要创建两个分区 sata*p1 和 sata*p2 分别加到 md0 和 md1 ,然后把 sata*p3 加到数据分区组成 raid ,而我新增的硬盘只是粗暴建了一个分区 sata4p1 直接加到 md2 了,这应该是新加的硬盘 2 无法访问系统分区的原因。 |
12 linzyjx 260 天前 ![]() raid0 就别瞎折腾了,数据重要就下盘去做数据恢复吧。能逻辑恢复的话应该也不会太贵 |