Bond интерфейс Debian Wheezy.

Автор triangel, 05 августа 2014, 14:41:38

« назад - далее »

0 Пользователи и 1 гость просматривают эту тему.

triangel

Доброго времени суток, дорогие форумчане!

Возникла следующая проблема - настраиваю бонд интерфейс между двумя серваками на дебиан, а скорость ниже чем должна быть (как через один интерфейс).

Более подробно:
Есть два сервера/лезвия (HS21 и HS23 из BladeCenter IBM) с двумя сетевухами каждый (по 2-е гигабитных сетевухи на лезвие). На каждом и серверов стоит Debian Wheezy. Сетевые настройки следующие (/etc/network/interfaces):


auto lo
iface lo inet loopback

iface eth0 inet manual

iface eth1 inet manual

auto bond0
iface bond0 inet manual
slaves eth0 eth1
bond_miimon 100
bond_mode 802.3ad

auto vmbr0
iface vmbr0 inet static
address 10.10.10.10
netmask 255.255.255.0
gateway 10.10.10.1
bridge_ports bond0
bridge_stp off
bridge_fd 0



На двух коммутаторах (которые обслуживают каждый свой порт в BladeCenter) я соответственно сделал эти порты пропускающими тегированный трафик и LACP active. И ребутнул, на всякий случай оба лезвия.

Вопрос по почему у меня при копировании по сети скорость копирования с одного лезвия на соседнее 808 Мб/с, а должна быть приблизительно 1900 Мб/с? Что и где я упустил или не сделал?

Может кто сталкивался с такой проблемой? Нагуглить вменяемое объяснение у меня к сожалению не получается... Помогите хоть советом :-)

С уважением и надеждой на помощь, triangel.

zarguni

#1
Цитата: triangel от 05 августа 2014, 14:41:38
Вопрос по почему у меня при копировании по сети скорость копирования с одного лезвия на соседнее 808 Мб/с, а должна быть приблизительно 1900 Мб/с? Что и где я упустил или несделал?
Может кто сталкивался с такой проблемой? Нагуглить вменяемое объяснение у меня к сожалению не получается... Помогите хоть советом :-)
С уважением и надеждой на помощь, triangel.

Вот тут хорошая документация. В вашем случае для трафика между серверами, следуя формуле (src MAC XOR dst MAC) mod slave_count, всегда будет выбран один и тот же слэйв, через остальные - не пойдет. Попробуйте выбрать другой режим - balance-rr.

triangel

Спасибо, что откликнулись zarguni!
Извините, что не ответил сразу, целый день игрался с параметрами bonding-а на серверах. К сожалению работает только 802.3ad и только как я описал. Все остальные режимы приводят либо к сетевой недоступности, либо сервера начинают сильно тормозить. Полагаю это из-за железной сетевой конфигурации в люльке IBM - два различных коммутатора Broadcom, отвечающих каждый за свой интерфейс.
Правда, возможно, я не все комбинации перепробовал или где-то недонастроил броадком. Вот основное что я уже попробовал: rr, tlb, alb, 802.3ad с различными функциями хеширования.

zarguni

Для начала, если есть такая возможность, исключите коммутатор из этой схемы. Для разных режимов - разные настройки коммутатора нужны. В разделе 5 документации (ссылка выше) об этом написано:
- active-backup, balance-tlb and balance-alb - не требуется специальной настройки:
- balance-rr, balance-xor and broadcast - надо группировать порты (etherchannel, транк или как оно у других вендоров называется)
- 802.3ad - соответсвенно его и настраивать

triangel

Спасибо. Этот момент я читал, но видимо не внимательно. Для rr - я ни какой настройки не делал, а видимо нужна. Для 802.3ad естественно настраивал LACP на бродкоме. Кстати остались tlb/alb которые настроек не требуют, но они очень сильно тормозят сервера. В любом случае спасибо, буду вычитывать описалово broadcom-ов.