Восстановите 2 дисковых JBOD на Synology DS207+ с DSM 3.1
Друг спросил меня, могу ли я восстановить сбойный том на Synology DS207+, который был настроен с томом JBOD из 2 дисков.
В какой-то момент произошел сбой системы (возможно, сбой питания), и на ней остался сбойный том.
Кажется, том 1 забыл о DISK 1 и показывает только DISK 2.
Глядя на сами диски, они перечислены как работающие нормально, но диск 1 не инициализирован, а диск 2 по-прежнему принадлежит тому 1.
Диски являются идентичными жесткими дисками по 2 ТБ.
Я вынул оба диска и провел сканирование поверхности, чтобы исключить любые неисправные диски. Оба диска были чистыми, без поврежденных секторов, поэтому я надеюсь, что, возможно, том можно будет просто собрать снова без потери данных.
Я подключил диски обратно и SSH'd в систему, чтобы узнать больше о томе.
fdisk -l:
Disk /dev/sda: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 311 2490240 fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sda2 311 572 2097152 fd Linux raid autodetect
Partition 2 does not end on cylinder boundary
/dev/sda3 588 243201 1948793440+ fd Linux raid autodetect
Disk /dev/sdb: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 1 311 2490240 fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sdb2 311 572 2097152 fd Linux raid autodetect
Partition 2 does not end on cylinder boundary
/dev/sdb3 588 243201 1948793440+ fd Linux raid autodetect
cat / proc / mdstat:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active linear sdb3[1]
1948793408 blocks super 1.1 64k rounding [2/1] [_U]
md1 : active raid1 sdb2[1]
2097088 blocks [2/1] [_U]
md0 : active raid1 sdb1[1]
2490176 blocks [2/1] [_U]
unused devices: <none>
Похоже, в какой-то момент было несколько установок. Я заглянул в /etc/fstab, чтобы увидеть, что в данный момент установлено:
/dev/root / ext3 defaults 1 1
none /proc proc defaults 0 0
/dev/md2 /volume1 ext3 defaults 0 0
Таким образом, MD2 является активной настройкой. Я внимательно посмотрел на это.
mdadm --detail / dev / md2:
/dev/md2:
Version : 01.01
Creation Time : Thu Feb 17 12:49:46 2011
Raid Level : linear
Array Size : 1948793408 (1858.51 GiB 1995.56 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 2
Persistence : Superblock is persistent
Update Time : Sun Mar 10 11:36:50 2019
State : active, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Rounding : 64K
Name : 2
UUID : 763a5c64:fbc0e3f6:fb3c451b:521efa98
Events : 7
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 19 1 active sync /dev/sdb3
Теперь я попадаю на незнакомую территорию, потому что я никогда не проводил рейды вручную, и я не знаком со всем, что может сделать mdadm. Я попытался просто добавить диск в том, но это не сработает.
mdadm --manage / dev / md2 --add / dev / sda3:
mdadm: add new device failed for /dev/sda3 as 2: Invalid argument
И то же самое с --re-add вместо --add.
Сейчас я немного боюсь приступить к выполнению любых других команд при поиске похожих проблем и их решений, поскольку я не хочу стирать данные. Конечно, если нет другого способа вернуть диски в рабочее состояние, то это так. Я знаю, что JBOD - это не тот путь, без каких-либо дополнительных средств резервного копирования данных, и мой друг, очевидно, делает это и сейчас.:)
Но все равно было бы замечательно, если бы я мог как-то спасти весь этот беспорядок и в будущем настроить его должным образом.
Редактировать:
В качестве альтернативы, если данные на обоих дисках можно восстановить вне Synology Diskstation, это также будет правильным решением. У меня есть запасной диск объемом 4 ТБ, который может вместить данные с дисков размером 2 2 ТБ. Могут ли данные разделов Linux raid autodetect просто считываться и копироваться на больший диск?