Есть сервер, успешно работающий на RAID1, созданном из двух дисков: /dev/sda и /dev/sdb. Чуть меньше недели назад сервер аварийно завершил работу, а после включения в «Дисковой утилите GNOME» состоянии RAID-массива стало отмечено как «МАССИВ РАСПАЛСЯ».
--изображение удалено модератором. Alex_ander--
Правила форума1.5. Для добавления графических изображений в сообщения требуется использовать внешние сервисы. Подробную инструкцию, а так же список рекомендованных и запрещенных сервисов можно посмотреть в «Руководстве по добавлению изображений на форум».
Это был уже второй инцидент — предыдущее нештатное выключение завершилось также — поэтому я уже знал, как исправить ситуацию. Зайдя в настройки рейда (где остался один из двух дисков — /dev/sdb), я добавил выпавшее устройство. К сожалению, устройство из списка я выбрал не то, и оказалось, что я добавил в RAID-массив
раздел /dev/sda
1 — вместо диска /dev/sda.
Сразу после этого я попытался удалить ошибочно добавленный раздел через эту же дисковую утилиту. Увы, удаление завершилось ошибкой
Error marking /dev/sda1 as faulty in RAID array /dev/md0: Command-line `mdadm --manage "/dev/md0" --set-faulty "/dev/sda1"' exited with non-zero exit status 1: mdadm: set device faulty failed for /dev/sda1: Device or resource busy (udisks-error-quark, 0)
Я надеялся, что смогу удалить раздел через какое-то время (раздел находился и продолжает находиться в статусе «Синхронизируется»), но несколько дней прошло, а ничего так и не поменялось:
# mdadm --manage /dev/md0 --remove /dev/sda1
mdadm: hot remove failed for /dev/sda1: Device or resource busy
# mdadm --manage /dev/md0 -f /dev/sda1
mdadm: set device faulty failed for /dev/sda1: Device or resource busy
Проблему осложняет то, что сервер удалённый, физически мы с ним находимся в сильно разных локациях.
Поэтому хотелось бы решить проблему не выезжая на место, то есть выполняя действия из работающей ОС. Если это возможно.
Вот ещё немного информации о массиве:
# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdb[2](S) sda1[0]
976629568 blocks super 1.2 [2/1] [U_]
unused devices: <none>
# mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Apr 9 19:29:38 2015
Raid Level : raid1
Array Size : 976629568 (931.39 GiB 1000.07 GB)
Used Dev Size : 976629568 (931.39 GiB 1000.07 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Tue Dec 15 02:37:07 2015
State : clean, degraded
Active Devices : 1
Working Devices : 2
Failed Devices : 0
Spare Devices : 1
Name : service:0
UUID : e00bad9f:d733d92e:89edf7da:e29a5b00
Events : 4461371
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 0 0 1 removed
2 8 16 - spare /dev/sdb
# mdadm --examine /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : e00bad9f:d733d92e:89edf7da:e29a5b00
Name : service:0
Creation Time : Thu Apr 9 19:29:38 2015
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 1953259520 (931.39 GiB 1000.07 GB)
Array Size : 976629568 (931.39 GiB 1000.07 GB)
Used Dev Size : 1953259136 (931.39 GiB 1000.07 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
State : clean
Device UUID : 287486fb:854470ee:221f0ffb:01cefb40
Update Time : Tue Dec 15 02:38:37 2015
Checksum : be54540c - correct
Events : 4461389
Device Role : Active device 0
Array State : A. ('A' == active, '.' == missing)