Восстановите 2 дисковых JBOD на Synology DS207+ с DSM 3.1

Друг спросил меня, могу ли я восстановить сбойный том на Synology DS207+, который был настроен с томом JBOD из 2 дисков.

В какой-то момент произошел сбой системы (возможно, сбой питания), и на ней остался сбойный том.

Кажется, том 1 забыл о DISK 1 и показывает только DISK 2.

Глядя на сами диски, они перечислены как работающие нормально, но диск 1 не инициализирован, а диск 2 по-прежнему принадлежит тому 1.

Диски являются идентичными жесткими дисками по 2 ТБ.

Я вынул оба диска и провел сканирование поверхности, чтобы исключить любые неисправные диски. Оба диска были чистыми, без поврежденных секторов, поэтому я надеюсь, что, возможно, том можно будет просто собрать снова без потери данных.

Я подключил диски обратно и SSH'd в систему, чтобы узнать больше о томе.

fdisk -l:

Disk /dev/sda: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot      Start         End      Blocks  Id System
/dev/sda1               1         311     2490240  fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sda2             311         572     2097152  fd Linux raid autodetect
Partition 2 does not end on cylinder boundary
/dev/sda3             588      243201  1948793440+ fd Linux raid autodetect

Disk /dev/sdb: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot      Start         End      Blocks  Id System
/dev/sdb1               1         311     2490240  fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sdb2             311         572     2097152  fd Linux raid autodetect
Partition 2 does not end on cylinder boundary
/dev/sdb3             588      243201  1948793440+ fd Linux raid autodetect

cat / proc / mdstat:

Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active linear sdb3[1]
      1948793408 blocks super 1.1 64k rounding [2/1] [_U]

md1 : active raid1 sdb2[1]
      2097088 blocks [2/1] [_U]

md0 : active raid1 sdb1[1]
      2490176 blocks [2/1] [_U]

unused devices: <none>

Похоже, в какой-то момент было несколько установок. Я заглянул в /etc/fstab, чтобы увидеть, что в данный момент установлено:

/dev/root / ext3 defaults 1 1
none /proc proc defaults 0 0
/dev/md2 /volume1 ext3 defaults 0 0

Таким образом, MD2 является активной настройкой. Я внимательно посмотрел на это.

mdadm --detail / dev / md2:

/dev/md2:
        Version : 01.01
  Creation Time : Thu Feb 17 12:49:46 2011
     Raid Level : linear
     Array Size : 1948793408 (1858.51 GiB 1995.56 GB)
   Raid Devices : 2
  Total Devices : 1
Preferred Minor : 2
    Persistence : Superblock is persistent

    Update Time : Sun Mar 10 11:36:50 2019
          State : active, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

       Rounding : 64K

           Name : 2
           UUID : 763a5c64:fbc0e3f6:fb3c451b:521efa98
         Events : 7

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8       19        1      active sync   /dev/sdb3

Теперь я попадаю на незнакомую территорию, потому что я никогда не проводил рейды вручную, и я не знаком со всем, что может сделать mdadm. Я попытался просто добавить диск в том, но это не сработает.

mdadm --manage / dev / md2 --add / dev / sda3:

mdadm: add new device failed for /dev/sda3 as 2: Invalid argument

И то же самое с --re-add вместо --add.

Сейчас я немного боюсь приступить к выполнению любых других команд при поиске похожих проблем и их решений, поскольку я не хочу стирать данные. Конечно, если нет другого способа вернуть диски в рабочее состояние, то это так. Я знаю, что JBOD - это не тот путь, без каких-либо дополнительных средств резервного копирования данных, и мой друг, очевидно, делает это и сейчас.:)

Но все равно было бы замечательно, если бы я мог как-то спасти весь этот беспорядок и в будущем настроить его должным образом.

Редактировать:

В качестве альтернативы, если данные на обоих дисках можно восстановить вне Synology Diskstation, это также будет правильным решением. У меня есть запасной диск объемом 4 ТБ, который может вместить данные с дисков размером 2 2 ТБ. Могут ли данные разделов Linux raid autodetect просто считываться и копироваться на больший диск?

0 ответов

Другие вопросы по тегам