raorn
процесс ovs-vswitchd не будет виден в netstat на порту 4789 никогда-никогда
raorn
https://github.com/openvswitch/ovs/blob/master/datapath/vport-vxlan.c
raorn
вот это кусок ядрового модуля openvswitch, он юзает ядровый же модуль vxlan
raorn
в юзерспейс входящие пакеты не попадают
Andrey
забавный pid
Andrey
root@compute-5:~# netstat -n -Ntupl | grep 4789 udp 0 0 0.0.0.0:4789 0.0.0.0:* -
Aleksey
процесс ovs-vswitchd не будет виден в netstat на порту 4789 никогда-никогда
Не будет, но ядро хотя-бы будет слушать этот порт: udp 0 0 0.0.0.0:4789 0.0.0.0:* -
Aleksey
В моём случае на этот порт ядро не биндится
Aleksey
Да и в tcpdump'е будет виден responce с этого порта, а его нет =(
J
На ovs интерфейсах pcap драйвер не работает, если только это не Internal порт.
Aleksey
Смотрю на коммутаторе через mirroring
Aleksey
Ответов с этого порта нет, порт при помощи nc ОС даёт забиндить, следовательно этот UDP-сокет никто не держит
Aleksey
И это странно
Aleksey
Тупой вопрос - перед тем как создавать ovs-vsctl vxlan'ы их нужно создавать через ip link add vxlan0 type vxlan *somewere* или ovs-vsctl должен это сделать за меня?
raorn
а ты вообще какого эффекта хочешь добиться?
Aleksey
bridge vxlan over IP между виртуалками
J
А source ip который на vxlan интерфейсе указан, он есть где-то?
raorn
начни с вывода команд ovs-vsctl show и ей подобных
Aleksey
> ovs-vsctl show d74f8b58-4632-4763-acc3-1bd5efc34495 Bridge "br1" fail_mode: standalone Port "br1" Interface "br1" type: internal Port ovs-host Interface ovs-host type: vxlan options: {df_default="true", in_key="7", local_ip="94.130.15.152", out_key="7", remote_ip="88.99.167.68"} ovs_version: "2.7.0"
Aleksey
Вроде-бы всё как по-инструкции
raorn
а виртуалка где?
raorn
а правила какие в br1 живут?
Aleksey
Пока не добавлял. Мне-б хост-системы увидеть
Aleksey
raorn
openflow
Aleksey
Правила не создавал
Aleksey
С двух сторон сделал через ovs-vsctl мост и попытался увидеть связность
satandyh
Vxlan кто-нибудь настраивал на openstack?
Anonymous
Vxlan кто-нибудь настраивал на openstack?
тут только по мплс угорают :) какой вопрос?
satandyh
тут только по мплс угорают :) какой вопрос?
Вопрос-то простенький. Статически создать vxlan туннели - это здорово но задрочно ибо их придётся поднимать очень и очень много, чтобы создать подносы знаю топологию. Можно ли на compute node делать vxlan в "динамическом" режиме?
Anonymous
или я не понял вопроса
satandyh
Ну т.е. через evpn или multicast
satandyh
При добавлении железок, как новых нод так и свичей/маршрутизаторов добавлять вручную затратно
satandyh
?? опенстек сам запилит
А сам запилит - это он докинет кучу тоннелей? Или как-то по-другому там взаимодействие идёт?
Anonymous
у вас железки как соединены?
Akhmed Gasanov
Можно как нибудь сеть в GNS связать с OpenStack?
satandyh
железки соединены так: корзина с7000 - Тор свитч - агрегация свитч - маршрутизатор для выхода вовне
satandyh
И таки туннельчики в силу своих причин на всех кроме агрегации живут
satandyh
Ммм... Оке раз само можно попросить ткнуть меня в документашку где это само описывается
satandyh
?
J
да, конечно. Минуту.
Anonymous
Можно как нибудь сеть в GNS связать с OpenStack?
запустить жнс на вмке/компьюете?
J
https://docs.openstack.org/liberty/networking-guide/scenario-classic-ovs.html https://docs.openstack.org/ocata/networking-guide/deploy-ovs-selfservice.html Вот для начала.
satandyh
satandyh
Мне же интересно как это дело все работает внутри. Прям вот до флов диаграмм. И на случай расширения
satandyh
Потому как я на хардвар железках вижу что это дело в статике создано. И при добавлении новых нод придется делать добавление огромного числа туннелей
satandyh
Я б такой чтоб этого избежать всеми фибрами моей души
satandyh
Вот и интересуюсь что да как
J
Мне же интересно как это дело все работает внутри. Прям вот до флов диаграмм. И на случай расширения
Ну коротко если, на каждой compute ноде openvswitch агент создает vxlan интерфейсы на туннельном бридже и получается полносвязная сетка из compute нод.
J
То есть, в вашем случае проще всего от железных vxlan избавиться и оставить просто l2\l3 связь между туннельными интерфейсами нод.
J
А в vxlan приватные сети будет заворачивать ovs.
Andrey
т.е. у вас VTEP на компьютах терминируются с VTEP на ТОР свиче ? или у вас традиционный опенстековский vxlan только с VTEP на компьютах ?
J
Или я чот ща не понял)
J
Тогда мои извинения.
Andrey
короче красавцы) опенстек это может сделать автоматом если вам поставили плагинчик к нейтрону под ваши железки и плагин такое умеет)
satandyh
*сетевом железе
satandyh
Да, знаю, схема тот ещё геморрой
Andrey
ну если плагинчик не умеет то ансибл вам в помощь
satandyh
Мдееее... Чую, что так и будет - бегать с ансиблом по железу
J
Парни, а чем плохо то софтово инкапсулировать в vxlan?
Andrey
сетевые функции лучше перекладывать на сетевое железо, всегда
Andrey
а в этом случае на компьютах вообще было лучше оставить VLAN only, а VXLAN только на железе, избавились бы от инкапсулирования на компьютах - все ресурсы и задержки
Sergey
как интересно. у меня 50000 клиентов. каждому нужна изолировання сеть. расскажите сказку про qiq. vxlan offload на сетевых картах не просто так сделан
J
медленно?
Ну я не энтерпрайзный пацан и опенстек у меня карманный, но жалоб нигде ни разу не видел на то что производительность сети упирается в способность ovs оборачивать трафик в vxlan.
Andrey
как интересно. у меня 50000 клиентов. каждому нужна изолировання сеть. расскажите сказку про qiq. vxlan offload на сетевых картах не просто так сделан
маппинг VXLAN - VLAN локальный для каждой компьюты, поэтому работает если у вас не больше 4к сетей на компьюте - что в общем обычно всех удовлетворит)
Sergey
Sergey
тем у кого меньше 4к сетей (и больше не планируется) vxlan не нужен. совсем
Andrey
лол
Andrey
vxlan моогут быть все 16кк сетей
Andrey
маппинг локальный поэтому он не VXLAN - VLAN - которых может быть только 4к а идет маппинг VXLAN - VLAN - COMPUTE NODE - которых уже даже посчитать не так легко)
Sergey
ок
Sergey
две компуты
Sergey
на каждой есть вм клиента
Sergey
дальше