Artem
https://docs.openstack.org/mitaka/networking-guide/config-bgp-dynamic-routing.html
В данном случае, получается l3 agent один и на контроллере ?
Alexander
Спасибо!
Да не за что! В Nova, например, забыли упомянуть про Nova Placement, патч находится на рассмотрении: https://review.openstack.org/#/c/438328/
Alexander
Serega
> https://docs.openstack.org/ocata/networking-guide/deploy.html Выглядит страшно... Если нужен именно BGP-пиринг с инфраструктурой -- посмотрите в сторону Calico.
Danila
Теперь нету нетворк нод?
Artem
Теперь нету нетворк нод?
Их теперь отдельно не выделяют, агенты ставят тут же на контроллере
Artem
Всегда можно собрать их на отдельном железе :)
Vyacheslav
Нетворк-нода является анахронизмом со времен, когда не было всяких NFV и DVR
Vyacheslav
А примеры для openstack есть ?
Примеры чего? Чтобы далеко не ходить, поробуйте MOS со включенным DVR.
Artem
Примеры чего? Чтобы далеко не ходить, поробуйте MOS со включенным DVR.
Mos, это что - mirantis openstack? И расшифруйте, что есть dvr?
Vyacheslav
верно. https://wiki.openstack.org/wiki/Neutron/DVR
citius
кстати как вообще MOS/fuel для средне-масштабного продакшена на десяток нод?
citius
стабилен/удобен? пока в лабе вроде все бегает
Vyacheslav
20-50-200
citius
я вообще в openstack новый, раньше все всфера да всфера. поссмотрел, в хорайзоне кучи нужных фич нету (или не видно во всяком случае), например лайв-миграцию как я понял надо руками впиливать
citius
это так и есть и все руками делают что-то сложнее базового функционала?
Vyacheslav
лайв-миграция из коробки всегда была
citius
ну апи да, терраформ у меня ходит в апи
citius
а глазками куда смотреть? :)
Anonymous
в вывод cli утилит
citius
грустно
Vyacheslav
грустно
Все равно все свою вебку прикручивают
Mike
live миграцию делает админ, в его аккаунте. Обычный пользователь не может воспользоваться таким функционалом, по умолчанию
citius
мне не нужно мультитенанси, облако чисто приватное
citius
но морду таки хочется
Mike
И не надо сравнивать, пожалуйста VMware и OpenStack. Системы создавались под разные задачи и подход изначально был разный
Mike
citius
> Vyacheslav Все равно все свою вебку прикручивают ну вот это я под "руками" и имел в виду.
citius
т.е. еще что-то прогать надо чтобы оно удобно ехало.
Vyacheslav
Alexander
для Private Cloud сгодится то что есть
+1 Horizon неплох для небольших частных облаков
Artem
Я вот что в DVR не понимаю, там роутеры с одинаковыми ип адресами на интерфейсах, каким чудом оно работает?
Artem
Мм, в плане что qrouter с Compute01 не знает ничего о qrouter c Compute02. А уникальность только на уровне floating-ip?
Anonymous
ну а в чем проблема? все верно сказали, linux namespaces (аналог VRF в сетевых железках)
Artem
Artem
В общем, если я правильно понял, чтобы DVR работал. На compute01 вешаем floating на DVR - 10.10.0.1 На сompute02 вешаем floating на DVR - 10.10.0.2 instance01 на compute01 имеет floating ip 10.10.0.5 для него есть маршрут на внешнем роутере, типа ip route 10.10.0.5 via 10.10.0.1 Когда падает compute01 маршрут меняется на 10.10.0.5 via 10.10.0.2
NS 🇷🇺
да и это печальное разбазаривание IPv4
NS 🇷🇺
если фипы реальные адреса
Artem
да и это печальное разбазаривание IPv4
Ну маршрутизировать аля white_ip via 10.10.0.1
Artem
Я так понимаю маршрутизация не в ведении openstack? типа делаем все руками? Или подключаем BGP, https://docs.openstack.org/mitaka/networking-guide/config-bgp-dynamic-routing.html
NS 🇷🇺
смотря какая... на куроутерах маршруты можно прописывать
Artem
Внешняя, типа кто вот этот маршрут напишет что instance01 доступен через compute01
Vadim
разве fip не переедет вместе с VM? он же уникален для порта
Artem
Так а в концепции DVR, как внешний маршрутизатор об этом узнает?
Vadim
зачем ему знать? это будет переезд не l3 а l2.
Vadim
mac fip просто перееден на другой порт tor свитча
Vadim
вы же compute nodes не сразу в роутер включаете
Artem
Там внутри qrouter-ов все виртуалки между собой в L2?
Artem
вы же compute nodes не сразу в роутер включаете
А как, схема говорит сразу в интернет, в этом магия DVR ?
Vadim
Vadim
VM которая хочет пойти в другую сетку спросит mac шлюза, в int бридже трафик завернут в роутер
Vadim
потом он смаппится в уникальный fip для конкретного neutron порта и улетит во вне
NS 🇷🇺
Расскажите это разработчикам опенстека, где при использовании ДВР, на каждом компуте создается фип неймспейс, если на этом компуте есть хотя бы одна машина с фип
NS 🇷🇺
Ваша картинка как раз об этом и говорит )
Artem
потом он смаппится в уникальный fip для конкретного neutron порта и улетит во вне
А как он обратно себе дорогу найдет? Я почти понял и почти опять все не понял
Vadim
так чем это противоречит моим словам?
Vadim
я же и схему с этим fip привел
NS 🇷🇺
так чем это противоречит моим словам?
Никак, еще раз их перечитал
Artem
Вот у меня есть DVR 10.10.0.1 и 10.10.0.2. В какой то момент instance01 с ip 10.10.0.10 переехал на 10.10.0.2. Получается что трафик должен прийти на 10.10.0.2, оттуда он SNATится и уходит уже по маку. Потому что между всеми compute есть L2
Vadim
шлюз у VM один
Vadim
например 10.10.0.1
Vadim
The DVR agent takes responsibility for creating, updating, or deleting the routers in the router namespaces. For all clients in the network owned by the router, the DVR agent populates the ARP entry. By pre-populating ARP entries across compute nodes, the distributed virtual router ensures traffic goes to the correct destination.
Artem
Ну так правильно с нее трафик без проблем убегает, а как он с интернета к ней то путь находит?
Vadim
так через fip и находит
Vadim
просто без dvr fip на network node а c dvr на compute node
Vadim
а там обычный nat на iptables
Artem
Интересно когда я Вас достану 😂 Спасибо за потраченное время! =)
Artem
Пограничный маршрутизатор: ip route add 10.10.0.10 via 10.10.0.1 —------------------------------------------------— Compute01 - 10.10.0.1 is down Compute02 - 10.10.0.2 up \ instance01 10.10.0.10 is up (compute02)
Artem
Нифига не работает, потому что трафик идет на умерший хост
Vadim
внешний fip vm ведь тот же останется
Artem
Внешний fip = 10.10.0.10