Форум русскоязычного сообщества Ubuntu


Следите за новостями русскоязычного сообщества Ubuntu в Twitter-ленте @ubuntu_ru_loco

Автор Тема: Адаптивное распределение нагрузки сети в server 11.10  (Прочитано 1862 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн Deniskanet

  • Автор темы
  • Новичок
  • *
  • Сообщений: 30
    • Просмотр профиля
Добрый вечер.

Какими методами можно реализовать в Ubuntu Server 11.10  адаптивное распределение сетевой нагрузки на сервер? Нужно объединить 2 сетевые карты для большей пропускной способности.


Оффлайн drako

  • Старожил
  • *
  • Сообщений: 1422
    • Просмотр профиля
Читайте про bonding - выбирайте подходящий для себя режим.

Оффлайн Deniskanet

  • Автор темы
  • Новичок
  • *
  • Сообщений: 30
    • Просмотр профиля
Спасибо. Информацию нашел. Вопросов стало больше.

 iface lo inet loopback

 auto bond0
 iface bond0 inet static
 address 192.168.1.10
 gateway 192.168.1.1
 netmask 255.255.255.0
 slaves eth1 eth2
 up /sbin/ifenslave bond0 eth1 eth2
 down /sbin/ifenslave -d bond0 eth1 eth2

 auto eth0
 iface eth0 inet dhcp

 auto eth1
 iface eth1 inet manual

 auto eth2
 iface eth2 inet manual

Собственно вопросы.

1) С помощью Bonding можно собрать любое количество сетевых карт просто дописав в auto ethX
 iface ethX inet
или только по 2 адаптера?
2) Как сделать так чтобы bonding работал по dhcp? из примера понятно что объединяются только eth1 и eth2 и у них статичный ip а вот у eth0 динамичный...
3) Bonding будет работать с любым роутером\свичом\модемом к которому будет подключаться сервер?
« Последнее редактирование: 06 Январь 2012, 19:42:52 от Deniskanet »

Оффлайн drako

  • Старожил
  • *
  • Сообщений: 1422
    • Просмотр профиля
Для 10.04 и выше:

auto bond0
iface bond0 inet dhcp
bond-slaves eth1 eth2
# LACP confuration
bond_mode 802.3ad
bond_miimon 100
bond_lacp_rate 1

auto eth1
iface eth1 inet manual

auto eth2
iface eth2 inet manual

Кол-во интерфейсов любое, работа с конкретными свичами\роутерами зависит от режима(bond_mode).

Оффлайн Deniskanet

  • Автор темы
  • Новичок
  • *
  • Сообщений: 30
    • Просмотр профиля
Спасибо.

Насколько я понимаю данный код нужно вбить в etc/network/interfaces?
Нужно ли вносить в etc/modprobe.d/aliaces  следующий код:

alias bond0 bonding
options bonding mode=1 miimon=100

или это заменили строчки:

bond_mode 802.3ad
bond_miimon 100
bond_lacp_rate 1

 :-[

Оффлайн drako

  • Старожил
  • *
  • Сообщений: 1422
    • Просмотр профиля
По ману с ubuntu.com должно быть и то и то.

Оффлайн Deniskanet

  • Автор темы
  • Новичок
  • *
  • Сообщений: 30
    • Просмотр профиля
Большое спасибо. 10ого попробую сделать на сервере.

Попробовал. Получилось Но возникли непонятки со скоростью. 460 Мбит/с (замеряли с помощью nload перегоняя файлы большого обьёма) ожидал как минимум гигабит. Подключено в гигабитные порты dlink des 3028p.
У нас есть 2 гигабитные сетевые карточки realtek 8111(интегрирован) и intel 82540em(PCI32) если вытащить 1(любой) сетевой кабель в момент копирования, оно не прерывается. На скорость не влияет.

Linux server 11.10, ядро 3.0.0.14

ifconfig показывает

ifconfig
bond0     Link encap:Ethernet  HWaddr d0:27:88:95:e6:af
          inet addr:192.168.0.9  Bcast:192.168.0.255  Mask:255.255.255.0
          inet6 addr: fe80::d227:88ff:fe95:e6af/64 Scope:Link
          UP BROADCAST RUNNING MASTER MULTICAST  MTU:1500  Metric:1
          RX packets:7788081 errors:0 dropped:532 overruns:0 frame:0
          TX packets:5716273 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:2889693799 (2.8 GB)  TX bytes:269562338 (269.5 MB)

eth0      Link encap:Ethernet  HWaddr d0:27:88:95:e6:af
          UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1
          RX packets:532 errors:0 dropped:532 overruns:0 frame:0
          TX packets:74 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:58054 (58.0 KB)  TX bytes:9176 (9.1 KB)
          Interrupt:42 Base address:0xe000

eth2      Link encap:Ethernet  HWaddr d0:27:88:95:e6:af
          UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1
          RX packets:7787549 errors:0 dropped:0 overruns:0 frame:0
          TX packets:5716199 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:2889635745 (2.8 GB)  TX bytes:269553162 (269.5 MB)

lo        Link encap:Local Loopback
          inet addr:127.0.0.1  Mask:255.0.0.0
          inet6 addr: ::1/128 Scope:Host
          UP LOOPBACK RUNNING  MTU:16436  Metric:1
          RX packets:58962 errors:0 dropped:0 overruns:0 frame:0
          TX packets:58962 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:8832974 (8.8 MB)  TX bytes:8832974 (8.8 MB)


/etc/modprobe.d/aliaces

aliaces bond0 bonding
options bonding mode=802.3ad

/etc/network/interfaces

auto lo
iface lo inet loopback

#auto eth0
#iface eth0 inet dhcp

#auto eth2
#iface eth2 inet dhcp

auto bond0
iface bond0 inet dhcp
bond-slaves eth0 eth2
# LACP confuration
bond_mode 802.3ad
bond_miimon 100
bond_lacp_rate 1

auto eth0
iface eth0 inet manual

auto eth2
iface eth2 inet manual

Вопрос.

Будет ли корректно работать bonding на карточках разных производителей?

Сейчас отключил Bonding и получил с этих сетевых карточек по max740Mbit/s. (при многопоточном копировании)




« Последнее редактирование: 12 Январь 2012, 12:53:45 от Deniskanet »

Оффлайн Deniskanet

  • Автор темы
  • Новичок
  • *
  • Сообщений: 30
    • Просмотр профиля
Сегодня попробовал настроить бондинг на полноценный стоечный сервере 1U с 2мя гигибитными портами. Толку 0. Скорость никакущая. Роутер бондинг4 поддерживает. :-[

Оффлайн Дмитрий Бо

  • Погонщик серверов
  • Модератор раздела
  • Старожил
  • *
  • Сообщений: 3538
  • Я не техподдержка, я за порядком слежу
    • Просмотр профиля
    • LinkedIn
Роутер должен не только поддерживать бондинг, этот бондинг ещё нужно включить на нужных портах (у меня так, по крайней мере).

И ещё, скорость между двумя серверами не поднимется выше скорости одного интерфейса — балансировка между интерфейсами выполняется на онове XOR между адресами (в стандартном случае).

Вот тут подробно расписано:
http://www.kernel.org/doc/Documentation/networking/bonding.txt
« Последнее редактирование: 19 Январь 2012, 00:07:44 от Дмитрий Бо »
Не опускай рук, а то пропустишь в бороду

Оффлайн Deniskanet

  • Автор темы
  • Новичок
  • *
  • Сообщений: 30
    • Просмотр профиля
Спасибо за подсказку. Бондинг всёже настроил на ubuntu 11.10

изменения вносил только в /etc/network/interfaces
auto bond0
iface bond0 inet dhcp
bond-slaves eth0 eth1
#LACP configurations
bond_mode 802.3ad
bond_miimon 100
bond_lacp_rate 1

никаких других изменений на сервере не делал. 2х100Mbit дали 150Mbit при копировании файлов без настройки коммутатора. Втыкали в обычный 100Mbit ный свитч там скорость сразу падала вдвое.

Возникла непонятка. При загрузке пишет Unable to update LACP rate because bond is not in 802.3ad mode.

Коммутатор настраивать пробовал. D-Link DES3028P

Trunking->Link Aggregation-> перепробовал все возможные конфигурации. Добился только понижения пропускной способности до 70Мбит (пропускная способность одной сетевой карты)
Trunking->LACP Port Settings переключал пару портов в режим active толку не увидел.

ПС. Стоило только написать на форуме об успехе всё упало и даже не отжалось. Бондинг не может получить IP адрес. Повторно настроить не удалось...

После добавления строчки
sudo sh -c "echo bonding mode=4 miimon=100 >> /etc/modules"IP адрес присваивался но никакого повышения скорости не было. Вся нагрузка через eth0...вытаскиваю кабель и нагрузка переходит на eth1... В чём моя ошибка?
« Последнее редактирование: 19 Январь 2012, 22:16:08 от Deniskanet »

 

Страница сгенерирована за 0.062 секунд. Запросов: 24.