В общем...
коммандой
mdadm --create /dev/md0 --level=5 --chunk=64 --raid-devices=4 /dev/sdc /dev/sdd /dev/sde /dev/sdf --assume-clean
можно создать диск на существующем рейде.
НО!
Я не помню как я это все создавал...
С какими параметрами...
Можно где-то в логах узнать, какие параметры били у рейда ?
dmesg
syslog
где-то еще ?
Что я знаю:
# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
DEVICE partitions
ARRAY /dev/md5 level=raid5 num-devices=4 metadata=1.2 spares=1 name=eforest:5 UUID=39da9014:3efd51a7:fd2e7ed0:481a0730
И в dmesg
[ 22.219415] kernel: md/raid:md5: device sdd operational as raid disk 3
[ 22.219421] kernel: md/raid:md5: device sde operational as raid disk 2
[ 22.219424] kernel: md/raid:md5: device sdc operational as raid disk 1
[ 22.219427] kernel: md/raid:md5: device sdb operational as raid disk 0
[ 22.220965] kernel: md/raid:md5: raid level 5 active with 4 out of 4 devices, algorithm 2
[ 22.423847] kernel: md5: detected capacity change from 0 to 11720294400
т.е. я почти уверен, что никаких партиций на дисках не делал...
использовал диски вот так:
/dev/sdc /dev/sdd /dev/sde /dev/sdf
И, похоже, это и помогло затереть всю информацию про рейд...
Пользователь добавил сообщение 17 Января 2025, 21:46:03:
Хм...
Пересоздал raid
После перезагрузки сервера, рейд от mdadm пропал.
Опять появились куски zfs
Пользователь добавил сообщение 18 Января 2025, 15:26:28:
Еще заметил
fdisk -l
пишет
The primary GPT table is corrupt, but the backup appears OK, so that will be used
Вот откуда вылезает старая zfs