Форум русскоязычного сообщества Ubuntu


Следите за новостями русскоязычного сообщества Ubuntu в Twitter-ленте @ubuntu_ru_loco

Автор Тема: Программный RAID INAKTIV-ARRAY  (Прочитано 1419 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн Stazot

  • Автор темы
  • Участник
  • *
  • Сообщений: 146
    • Просмотр профиля
Программный RAID INAKTIV-ARRAY
« : 29 Октября 2018, 15:57:48 »
Всем доброго времени суток.  Возможно не там написал, возможно уже и решен где то, но я не нашел. Прошу не судить строго.
Проблема следующая, пытаюсь собрать RAID0 (ну как рейд, один диск с суперблоками, не спрашивайте зачем, не знаю. Принесли, а мне по долгу службы пришлось взяться.) после запуска утилиты mdadm -Ds получаю следующее
(Нажмите, чтобы показать/скрыть)
mdadm -As тоже ничего не дает
 cat /proc/mdstat
(Нажмите, чтобы показать/скрыть)
mdadm --examine /dev/sda3
(Нажмите, чтобы показать/скрыть)

mdadm -D /dev/md126
(Нажмите, чтобы показать/скрыть)
Уже перепробовал все что нашел в инете. останавливал массив и пере собирал с ключом force, и с указанием UUIDа и правкой mdconf по образцу, ничего не помогает. Что может быть, может кто есть кто хорошо разбирается в mdadm.
Прошу прощения если что не так, но уже отчаился.
Очень важно сохранить данные, боюсь что если удалить суперблоки или их перезаписать данные восстановить будет куда сложнее.

Оффлайн bezbo

  • Старожил
  • *
  • Сообщений: 1749
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #1 : 29 Октября 2018, 16:08:33 »
sudo mdadm --detail --scan?

Оффлайн Stazot

  • Автор темы
  • Участник
  • *
  • Сообщений: 146
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #2 : 29 Октября 2018, 16:13:33 »
sudo mdadm --detail --scan

?
mdadm --detail --scan
INACTIVE-ARRAY /dev/md126 metadata=1.2 name=Synology:3 UUID=35ae6089:f4d04c9f:64f66518:7d54b72f

Оффлайн bezbo

  • Старожил
  • *
  • Сообщений: 1749
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #3 : 29 Октября 2018, 16:22:58 »
cat /etc/mdadm/mdadm.conf
sudo blkid
??

Оффлайн Stazot

  • Автор темы
  • Участник
  • *
  • Сообщений: 146
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #4 : 29 Октября 2018, 16:30:25 »
cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# !NB! Run update-initramfs -u after updating this file.
# !NB! This will ensure that initramfs has an uptodate copy.
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md/2  metadata=1.2 UUID=005dcfa7:5f160410:cecca95c:9534b033 name=DiskStation:2
ARRAY /dev/md127  metadata=1.2 UUID=35ae6089:f4d04c9f:64f66518:7d54b72f name=DiskStation_test:2
# This configuration was auto-generated on Tue, 28 Aug 2018 08:09:12 +0000 by mkconf
ARRAY /dev/md126 num-devices=1 metadata=1.2 name=Synology:3 UUID=35ae6089:f4d04c9f:64f66518:7d54b72f devices=/dev/sda3
sudo blkid
/dev/sda3: UUID="35ae6089-f4d0-4c9f-64f6-65187d54b72f" UUID_SUB="1bc9cb7e-c57d-34e6-d48c-837b0caf4035" LABEL="Synology:3" TYPE="linux_raid_member" PARTUUID="cdae2963-82db-4bd9-9408-a02f3038085d"
/dev/sdb1: LABEL="MULTIBOOT" UUID="2472A8F372A8CABE" TYPE="ntfs" PARTUUID="4e4d8751-01"
/dev/loop0: UUID="2018-07-25-03-21-56-00" LABEL="Ubuntu 18.04.1 LTS amd64" TYPE="iso9660" PTUUID="663eb4c4" PTTYPE="dos"
/dev/sda1: UUID="f422547a-d792-be4c-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="7d1c33da-c519-4f9b-b335-e9de2e118c9a"
/dev/sdb2: LABEL="Data" UUID="5650039F50038549" TYPE="ntfs" PARTUUID="4e4d8751-02"
/dev/sdb4: LABEL="casper-rw" UUID="de864c30-91fe-c444-b7c8-dddb97940495" TYPE="ext2" PARTUUID="4e4d8751-04"

Пользователь добавил сообщение 29 Октября 2018, 16:32:32:
Там есть еще два диска, но с ними все нормально, хотя с сконфигурированы примерно так же, по одному диску в рейду
« Последнее редактирование: 29 Октября 2018, 16:32:32 от Stazot »

Оффлайн bezbo

  • Старожил
  • *
  • Сообщений: 1749
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #5 : 29 Октября 2018, 16:49:31 »
Очень важно сохранить данные

Крайне рекомендую сделать бэкап данных на внешний носитель или другое хранилище.
У Вас полный бардак в конфиге mdadm...
UUID=35ae6089:f4d04c9f:64f66518:7d54b72f - включен в разные массивы, выберите какой-нибудь один.
UUID=005dcfa7:5f160410:cecca95c:9534b033 - не увидел в списке разделов, имеет смысл его закоментировать.

Пользователь добавил сообщение 29 Октября 2018, 16:53:46:
Там есть еще два диска

вам ехать или шашечки?
« Последнее редактирование: 29 Октября 2018, 16:53:46 от bezbo »

Оффлайн Stazot

  • Автор темы
  • Участник
  • *
  • Сообщений: 146
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #6 : 29 Октября 2018, 17:16:27 »
UUID=35ae6089:f4d04c9f:64f66518:7d54b72f - включен в разные массивы, выберите какой-нибудь один.
Я создавал его в ручную, позже удалил сразу как вам прислал. Ничего увы не изменилось.
Второй за комментировал.

теперь при вводе mdadm -Asполучаю
mdadm: No suitable drives found for /dev/md126

Оффлайн bezbo

  • Старожил
  • *
  • Сообщений: 1749
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #7 : 29 Октября 2018, 17:30:08 »
показывайте полный выхлоп:
sudo blkid
cat /etc/mdadm/mdadm.conf
cat /etc/fstab
?

Оффлайн Stazot

  • Автор темы
  • Участник
  • *
  • Сообщений: 146
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #8 : 29 Октября 2018, 17:33:09 »
показывайте полный выхлоп:
blkid
/dev/sda3: UUID="35ae6089-f4d0-4c9f-64f6-65187d54b72f" UUID_SUB="1bc9cb7e-c57d-34e6-d48c-837b0caf4035" LABEL="Synology:3" TYPE="linux_raid_member" PARTUUID="cdae2963-82db-4bd9-9408-a02f3038085d"
/dev/sdb1: LABEL="MULTIBOOT" UUID="2472A8F372A8CABE" TYPE="ntfs" PARTUUID="4e4d8751-01"
/dev/loop0: UUID="2018-07-25-03-21-56-00" LABEL="Ubuntu 18.04.1 LTS amd64" TYPE="iso9660" PTUUID="663eb4c4" PTTYPE="dos"
/dev/sda1: UUID="f422547a-d792-be4c-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="7d1c33da-c519-4f9b-b335-e9de2e118c9a"
/dev/sdb2: LABEL="Data" UUID="5650039F50038549" TYPE="ntfs" PARTUUID="4e4d8751-02"
/dev/sdb4: LABEL="casper-rw" UUID="de864c30-91fe-c444-b7c8-dddb97940495" TYPE="ext2" PARTUUID="4e4d8751-04"
/dev/loop1: TYPE="squashfs"
/dev/loop2: TYPE="squashfs"
/dev/loop3: TYPE="squashfs"
/dev/loop4: TYPE="squashfs"
/dev/loop5: TYPE="squashfs"
/dev/loop6: TYPE="squashfs"
/dev/loop7: TYPE="squashfs"
/dev/loop8: TYPE="squashfs"
/dev/loop9: TYPE="squashfs"
/dev/loop10: TYPE="squashfs"
/dev/loop11: TYPE="squashfs"
/dev/loop12: TYPE="squashfs"
/dev/loop13: TYPE="squashfs"
/dev/loop14: TYPE="squashfs"
/dev/loop15: TYPE="squashfs"
/dev/loop16: TYPE="squashfs"
/dev/loop17: TYPE="squashfs"
cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# !NB! Run update-initramfs -u after updating this file.
# !NB! This will ensure that initramfs has an uptodate copy.
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
#ARRAY /dev/md/2  metadata=1.2 UUID=005dcfa7:5f160410:cecca95c:9534b033 name=DiskStation:2
# This configuration was auto-generated on Tue, 28 Aug 2018 08:09:12 +0000 by mkconf
ARRAY /dev/md126 num-devices=1 metadata=1.2 name=Synology:3 UUID=35ae6089:f4d04c9f:64f66518:7d54b72f devices=/dev/sda3
cat /etc/fstab
overlay / overlay rw 0 0
tmpfs /tmp tmpfs nosuid,nodev 0 0

Пользователь добавил сообщение 29 Октября 2018, 17:46:42:
В dmesg вижу такое
segfault at 5647e2201560 ip 00005647e10bd6b4 sp 00007ffe07448110 error 6 in mdadm[5647e1087000+88000]
« Последнее редактирование: 29 Октября 2018, 17:46:42 от Stazot »

Оффлайн bezbo

  • Старожил
  • *
  • Сообщений: 1749
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #9 : 29 Октября 2018, 17:48:48 »
похоже, предыдущий райд у вас рассыпался и сейчас из остатка /dev/md126 пытаетесь сотворить level=raid0, боюсь так не получится...

закоментируйте в конфиге ARRAY /dev/md126 и пересканируйте

sudo mdadm --detail --scan
« Последнее редактирование: 29 Октября 2018, 17:54:59 от bezbo »

Оффлайн Stazot

  • Автор темы
  • Участник
  • *
  • Сообщений: 146
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #10 : 29 Октября 2018, 18:06:42 »
закоментируйте в конфиге ARRAY /dev/md126 и пересканируйте
mdadm -As
mdadm: No arrays found in config file or automatically
root@ubuntu:/home/its# mdadm -Ds
INACTIVE-ARRAY /dev/md126 metadata=1.2 name=Synology:3 UUID=35ae6089:f4d04c9f:64f66518:7d54b72f

Оффлайн bezbo

  • Старожил
  • *
  • Сообщений: 1749
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #11 : 29 Октября 2018, 18:24:01 »
не вижу sda2 и sdb3

sudo df -h

Оффлайн AnrDaemon

  • Заслуженный пользователь
  • Старожил
  • *
  • Сообщений: 28366
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #12 : 30 Октября 2018, 00:57:58 »
Raid Level : raid0
Помашите своим данным ручкой. У вас на руках только кусок массива.
Если остальные части утеряны, восстанавливать нечего.

пытаетесь сотворить
При чём тут это?
Хотите получить помощь? Потрудитесь представить запрошенную информацию в полном объёме.

Прежде чем [Отправить], нажми [Просмотр] и прочти собственное сообщение. Сам-то понял, что написал?…

Оффлайн Stazot

  • Автор темы
  • Участник
  • *
  • Сообщений: 146
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #13 : 30 Октября 2018, 09:12:41 »
Помашите своим данным ручкой. У вас на руках только кусок массива.
Если остальные части утеряны, восстанавливать нечего.
Да вот дело в чем, если посмотреть внимательно там только один диск в массиве изначально.
Total Devices : 1
Пользователь добавил сообщение 30 Октября 2018, 09:32:43:
не вижу sda2 и sdb3
Я их отключил за отсутствием интереса, там был 1диск в RAID1 и ещё 1 диск тоже в своём RAID1? странная система, я сам не сразу понял в чем прикол, но факт остаётся фактом. они нормально работали и доступ к данным я на них получил, а вот это не хотел работать и не хочет.(сначала подключал все три).

Пользователь добавил сообщение 30 Октября 2018, 09:50:08:
sudo df -h

df -h
Filesystem      Size  Used Avail Use% Mounted on
udev            7.7G  4.0K  7.7G   1% /dev
tmpfs           1.6G  1.6M  1.6G   1% /run
/dev/sdb1        59G  6.0G   53G  11% /isodevice
/dev/loop0      1.9G  1.9G     0 100% /cdrom
/dev/loop1      1.8G  1.8G     0 100% /rofs
/cow            3.9G  1.7G  2.0G  47% /
tmpfs           7.7G     0  7.7G   0% /dev/shm
tmpfs           5.0M  4.0K  5.0M   1% /run/lock
tmpfs           7.7G     0  7.7G   0% /sys/fs/cgroup
tmpfs           7.7G     0  7.7G   0% /tmp
/dev/loop2      2.4M  2.4M     0 100% /snap/gnome-calculator/180
/dev/loop3       94M   94M     0 100% /snap/imaginary-teleprompter/3
/dev/loop5      3.8M  3.8M     0 100% /snap/gnome-system-monitor/51
/dev/loop11     141M  141M     0 100% /snap/gnome-3-26-1604/74
/dev/loop9       87M   87M     0 100% /snap/core/4917
/dev/loop10      15M   15M     0 100% /snap/gnome-logs/45
/dev/loop4       13M   13M     0 100% /snap/gnome-characters/139
/dev/loop6       35M   35M     0 100% /snap/gtk-common-themes/319
/dev/loop7      2.3M  2.3M     0 100% /snap/gnome-calculator/238
/dev/loop8      141M  141M     0 100% /snap/gnome-3-26-1604/70
/dev/loop13     3.8M  3.8M     0 100% /snap/gnome-system-monitor/57
/dev/loop14      43M   43M     0 100% /snap/gtk-common-themes/701
/dev/loop15      88M   88M     0 100% /snap/core/5662
/dev/loop16     114M  114M     0 100% /snap/lepton/1
/dev/loop12      15M   15M     0 100% /snap/gnome-logs/37
/dev/loop17      13M   13M     0 100% /snap/gnome-characters/103
tmpfs           1.6G   32K  1.6G   1% /run/user/999
tmpfs           1.6G     0  1.6G   0% /run/user/1001

fdisk -l |grep sd
Disk /dev/sda: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
/dev/sda1     2048    4982527    4980480  2.4G Linux RAID
/dev/sda3  9437184 7813832351 7804395168  3.6T Linux RAID
Disk /dev/sdb: 931.5 GiB, 1000204885504 bytes, 1953525167 sectors
/dev/sdb1  *         2048  122882047  122880000  58.6G  7 HPFS/NTFS/exFAT
/dev/sdb2       122882048 1953519615 1830637568 872.9G  7 HPFS/NTFS/exFAT
/dev/sdb4         6703360   15091967    8388608     4G  0 Empty

Пользователь добавил сообщение 30 Октября 2018, 10:01:03:
вам ехать или шашечки?
Там несколько дисков, но каждый является членом своего "массива" и два остальных я собирал, получилось два рейда, и доступ к данным.
« Последнее редактирование: 30 Октября 2018, 10:01:03 от Stazot »

Оффлайн bezbo

  • Старожил
  • *
  • Сообщений: 1749
    • Просмотр профиля
Re: Программный RAID INAKTIV-ARRAY
« Ответ #14 : 30 Октября 2018, 10:19:47 »
включите обратно все разделы (внезапно!) и попробуйте:

sudo mdadm --examine --brief --scan --config=partitions?

 

Страница сгенерирована за 0.05 секунд. Запросов: 25.