Форум русскоязычного сообщества Ubuntu


Хотите сделать посильный вклад в развитие Ubuntu и русскоязычного сообщества?
Помогите нам с документацией!

Автор Тема: Увеличение LVM после добавления диска в MDADM  (Прочитано 189 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн k0st1k

  • Автор темы
  • Любитель
  • *
  • Сообщений: 64
    • Просмотр профиля
Доброго дня. Есть домашний сервер(медиа контент и что самое важное фоточки с мобильного, ownncloud). система хранения представляла собой 5 дисков по 1тб собранных средствами mdadm в raid6. По верх этого был развернут LVM2(2 раздела на 50гб для системы и 2,7ТБ для всего остального). Добавил в систему еще 2 диска по 1тб, в mdadm все пошло без проблем. а вот LVM ни в какую не хочет видеть то что размер тома вырос. я как бы подозреваю что надо увеличить размер, но вот окончательно запутался.
Цитировать
pvdisplay
File descriptor 7 (pipe:[608499]) leaked on pvdisplay invocation. Parent PID 19091: bash
  --- Physical volume ---
  PV Name               /dev/md126p1
  VG Name               r6lvm
  PV Size               2,73 TiB / not usable 2,50 MiB
  Allocatable           yes (but full)
  PE Size               4,00 MiB
  Total PE              715304
  Free PE               0
  Allocated PE          715304
  PV UUID               CZO5hm-kKVc-lYji-TfG5-JqW7-lcvD-97rQnx
Цитировать
vgdisplay
File descriptor 7 (pipe:[608499]) leaked on vgdisplay invocation. Parent PID 19091: bash
  --- Volume group ---
  VG Name               r6lvm
  System ID
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  4
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               2
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               2,73 TiB
  PE Size               4,00 MiB
  Total PE              715304
  Alloc PE / Size       715304 / 2,73 TiB
  Free  PE / Size       0 / 0
  VG UUID               RCeot2-I6VA-Mwyd-OdeH-t1Nf-9F6R-KBYfT7
Цитировать
lvdisplay
File descriptor 7 (pipe:[608499]) leaked on lvdisplay invocation. Parent PID 19091: bash
  --- Logical volume ---
  LV Path                /dev/r6lvm/system
  LV Name                system
  VG Name                r6lvm
  LV UUID                t9CN1x-ZgpX-PjJy-cu9e-8Zjp-on26-wCWGsv
  LV Write Access        read/write
  LV Creation host, time xubuntu, 2017-06-23 08:21:21 +0300
  LV Status              available
  # open                 1
  LV Size                50,00 GiB
  Current LE             12800
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     6144
  Block device           252:0

  --- Logical volume ---
  LV Path                /dev/r6lvm/strg
  LV Name                strg
  VG Name                r6lvm
  LV UUID                CyI3M3-rZq0-n4Ry-7eYP-9mku-Pyo3-j7S97n
  LV Write Access        read/write
  LV Creation host, time xubuntu, 2017-06-23 08:22:11 +0300
  LV Status              available
  # open                 1
  LV Size                2,68 TiB
  Current LE             702504
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     6144
  Block device           252:1
Цитировать
mdadm --detail /dev/md126
/dev/md126:
        Version : 1.2
  Creation Time : Thu Jun 22 14:53:14 2017
     Raid Level : raid6
     Array Size : 3906521088 (3725.55 GiB 4000.28 GB)
  Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
   Raid Devices : 7
  Total Devices : 7
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Tue Jul 11 10:07:48 2017
          State : active, reshaping
 Active Devices : 7
Working Devices : 7
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

 Reshape Status : 4% complete
  Delta Devices : 1, (6->7)

           Name : xubuntu:1
           UUID : a9582ff3:bb5abf32:5a24d10a:5b6b538b
         Events : 15081

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       2       8        1        2      active sync   /dev/sda1
       3       8      113        3      active sync   /dev/sdh1
       4       8       49        4      active sync   /dev/sdd1
       6       8       81        5      active sync   /dev/sdf1
       5       8       65        6      active sync   /dev/sde1
mdadm еще добавляет один диск, но размер все равно должен быть больше, не так ли?
« Последнее редактирование: 11 Июль 2017, 11:21:29 от k0st1k »

Оффлайн alexxnight

  • Активист
  • *
  • Сообщений: 269
    • Просмотр профиля
lvresize -r -L{new size} /dev/{voluem group name}/{logical voluem name}

Оффлайн k0st1k

  • Автор темы
  • Любитель
  • *
  • Сообщений: 64
    • Просмотр профиля
хорошо, вечером попробую

Оффлайн k0st1k

  • Автор темы
  • Любитель
  • *
  • Сообщений: 64
    • Просмотр профиля
lvresize -r -L{new size} /dev/{voluem group name}/{logical voluem name}
все бы ничего, но размер группы как был 2,7 так и остался, и откуда место возьмется?

Пользователь добавил сообщение 21 Июль 2017, 14:42:28:
Цитировать
mdadm --detail /dev/md1
/dev/md1:
        Version : 1.2
  Creation Time : Thu Jun 22 14:53:14 2017
     Raid Level : raid6
     Array Size : 5859781632 (5588.32 GiB 6000.42 GB)
  Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
   Raid Devices : 8
  Total Devices : 8
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Fri Jul 21 13:41:43 2017
          State : clean
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : xubuntu:1
           UUID : a9582ff3:bb5abf32:5a24d10a:5b6b538b
         Events : 59413

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       2       8        1        2      active sync   /dev/sda1
       3       8       65        3      active sync   /dev/sde1
       4       8       49        4      active sync   /dev/sdd1
       6       8      113        5      active sync   /dev/sdh1
       9       8       97        6      active sync   /dev/sdg1
       8       8       81        7      active sync   /dev/sdf1


Пользователь добавил сообщение 21 Июль 2017, 14:43:18:

 
Цитировать
--- Physical volume ---
  PV Name               /dev/md1p1
  VG Name               r6lvm
  PV Size               2,73 TiB / not usable 2,50 MiB
  Allocatable           yes (but full)
  PE Size               4,00 MiB
  Total PE              715304
  Free PE               0
  Allocated PE          715304
  PV UUID               CZO5hm-kKVc-lYji-TfG5-JqW7-lcvD-97rQnx
« Последнее редактирование: 21 Июль 2017, 14:43:18 от k0st1k »

Оффлайн k0st1k

  • Автор темы
  • Любитель
  • *
  • Сообщений: 64
    • Просмотр профиля
Резюмирую.
после пересборки массива(добавления туда 3х дисков по 1ТБ), Размер устройства md1 был  увеличен. чтобы увеличить размер логического тома необходимо. 
1. parted /dev/md1
Цитировать
(parted) print
Модель: Программный RAID-массив Linux (md)
Диск /dev/md1: 6000GB
Размер сектора (логич./физич.): 512B/4096B
Таблица разделов: gpt
Флаги диска:

Номер  Начало  Конец   Размер  Файловая система  Имя  Флаги
 1     1049kB  3000GB  3000GB                         lvm

(parted) resizepart 1 6000gb
(parted) print
Модель: Программный RAID-массив Linux (md)
Диск /dev/md1: 6000GB
Размер сектора (логич./физич.): 512B/4096B
Таблица разделов: gpt
Флаги диска:

Номер  Начало  Конец   Размер  Файловая система  Имя  Флаги
 1     1049kB  6000GB  6000GB                         lvm

(parted) q
2. Группе томов указать что том изменился.
Цитировать

# pvresize /dev/md1p1
File descriptor 7 (pipe:[79959]) leaked on pvresize invocation. Parent PID 7746: bash
  Physical volume "/dev/md1p1" changed
  1 physical volume(s) resized / 0 physical volume(s) not resized
# pvdisplay
File descriptor 7 (pipe:[79959]) leaked on pvdisplay invocation. Parent PID 7746: bash
  --- Physical volume ---
  PV Name               /dev/md1p1
  VG Name               r6lvm
  PV Size               5,46 TiB / not usable 3,40 MiB
  Allocatable           yes
  PE Size               4,00 MiB
  Total PE              1430510
  Free PE               715206
  Allocated PE          715304
  PV UUID               CZO5hm-kKVc-lYji-TfG5-JqW7-lcvD-97rQnx
3.изменяем размер Логической группы
Цитировать
# lvextend -l +100%FREE  /dev/r6lvm/strg
File descriptor 7 (pipe:[79959]) leaked on lvextend invocation. Parent PID 7746: bash
  Size of logical volume r6lvm/strg changed from 6,32 TiB (1656303 extents) to 9,05 TiB (2371509 extents).
  Logical volume strg successfully resized.
# pvdisplay
File descriptor 7 (pipe:[79959]) leaked on pvdisplay invocation. Parent PID 7746: bash
  --- Physical volume ---
  PV Name               /dev/md1p1
  VG Name               r6lvm
  PV Size               5,46 TiB / not usable 3,40 MiB
  Allocatable           yes (but full)
  PE Size               4,00 MiB
  Total PE              1430510
  Free PE               0
  Allocated PE          1430510
  PV UUID               CZO5hm-kKVc-lYji-TfG5-JqW7-lcvD-97rQnx

  --- Physical volume ---
  PV Name               /dev/md127p1
  VG Name               r6lvm
  PV Size               3,64 TiB / not usable 1,98 MiB
  Allocatable           yes (but full)
  PE Size               4,00 MiB
  Total PE              953799
  Free PE               0
  Allocated PE          953799
  PV UUID               CtEv2t-MsGk-k1Rz-o3nR-TWJ6-dGIz-HYZ4Lh
4.увеличиваем размер раздела.
Цитировать
# resize2fs /dev/mapper/r6lvm-strg
resize2fs 1.42.13 (17-May-2015)
Filesystem at /dev/mapper/r6lvm-strg is mounted on /media/storage; on-line resizing required
old_desc_blocks = 405, new_desc_blocks = 579
The filesystem on /dev/mapper/r6lvm-strg is now 2428425216 (4k) blocks long.

# df -h
Файл.система             Размер Использовано  Дост Использовано% Cмонтировано в
udev                       461M            0  461M            0% /dev
tmpfs                       96M         8,2M   88M            9% /run
/dev/mapper/r6lvm-system    50G          16G   31G           34% /
tmpfs                      480M            0  480M            0% /dev/shm
tmpfs                      5,0M            0  5,0M            0% /run/lock
tmpfs                      480M            0  480M            0% /sys/fs/cgroup
/dev/sdm1                  940M         1,2M  891M            1% /media/bitmap
/dev/mapper/r6lvm-strg     9,0T         2,3T  6,3T           27% /media/storage
tmpfs                       96M            0   96M            0% /run/user/1000

 

Страница сгенерирована за 0.093 секунд. Запросов: 24.