Tamerlan
работает вообще ?
как cni отлично
Aleksandr
/32 i t.d.
ndaemonv
Приветствую всех. Хочу посоветоваться на счёт выбора версии. 3 года юзаю Newton в общем полет нормальный. живёт се на 16 убунте и все бы ничего, решает поставленные задачи. Но сейчас планирую новое облако развернуть и уже заставить себя сделать это на 18.04 (хоть и не охота). В общем не знают что взять, Queens или Rocky?
Я и твой кот
На что техподдержка есть, то и ставьте ;)
Artyom
похоливарить чтоль... 🤪
Михаил
Aleksandr
йа, но старую версию
На самом деле у меня вопрос просто - я нихуя не понимаю в этих ваших докерах и прочих кубернейтсах (даже миникуб не осилил, может по тому что он поломан был из коробки) но задача простая - положить Апп в контейнер и при подъеме контейнера чтобы нода на которой он поднялся анонсила маршрут до этого контейнера по богапе на core роутер (или куда угодно по богапе). Что мне для этого надо? к8s + calico или чтото попроще есть?
Aleksandr
если честно мне похер куда, в контейнере меньше оверхеда
Михаил
калико и k8s
Fedor
калико + k8s это не самый простой путь
Fedor
я юзаю kubenet, думаю на калико было бы быстрее, но сложнее в настройке
NS 🇷🇺
Коллеги, а кто-то использует geneve для ovs без ovn c openvswitch драйвером фаервола?
Andrey
мсье знает толк, что вас сподвигло на geneve ?
NS 🇷🇺
мсье знает толк, что вас сподвигло на geneve ?
лично меня скорость создания VM с женев быстрее чем с vxlan
Михаил
Fedor
Тем что нейтроны в случае с кубенетом трогать не надо
Fedor
Ты настраивал кубер, используя калико, либо кубенет?
Aleksey
Я и твой кот
ndaemonv
Приветствую всех. Хотелось задать каверзный вопрос кроме лвм и цефа с какими схд опенстек работает из коробки?
Artemy
Угу. Является ничтожной допилкой posix'ового (как и NFS)
ndaemonv
Windows SMB Driver Во моя мечта
Это шутка была ))
ndaemonv
Может что то порекомендуете? Из наименее ничтожного?)
ndaemonv
Что больше нравится, то и бери)
Мне пиво нравится но под него в синдере драйвера нет 😭
J
Мне пиво нравится но под него в синдере драйвера нет 😭
Ну вопрос твой странный. Под задачу выбирай хранилище и все)
NS 🇷🇺
Ну вопрос твой странный. Под задачу выбирай хранилище и все)
у хранилища одна задача - хранить данные =)
NS 🇷🇺
Или хоронить 😂
эфимеры все схоронють да 😄
ndaemonv
Я схоронил все эфимеры ))
ndaemonv
Мне виртуалки на ссдхах надо крутить, лвм бы меня по производительности, устроил но хочется больше надёжности
Jain
у нас netapp как под виртулки так и под контейнеры(в OpenShift) также еще используем Ceph. Linstor тоже очень хорош. Но пока не тестировали
ndaemonv
У меня к примеру были случаи блочное устройства сыпались, при расширении диска причём не горячего. чего я не смог отловить на цефе.
Jain
netapp хорош тем что оно "просто работает и хрен сломаешь". На Цеф сразу берите спеца с железными нервами и вагоном денег для суппорта от redhat
Jain
Да, и такое было. Поэтому используем только их репы. Ну и давным давно(когда еще сеф небыл у шапки) заапрувили свой сетап.
Artemy
Всё хорошо если руки из плеч. Нетапки те ещё хранилища по Канту. Особенно когда вендор красавец такой "а вы по нфс подключайте". Ога, да
Artyom
Коллеги, помогите пожалуйста настроить порт на контроллере для октавии, вроде бы всё правильно сделал, но айпишник не получает этот порт...
Artyom
Пытался сделать следуя этому гайду: OCTAVIA_MGMT_SUBNET=172.16.0.0/12 OCTAVIA_MGMT_SUBNET_START=172.16.0.100 OCTAVIA_MGMT_SUBNET_END=172.16.31.254 CONTROLLER_HOSTNAME=zu-controller OCTAVIA_AMP_NETWORK_ID=$(neutron net-create lb-mgmt-net | awk '/ id / {print $4}') neutron subnet-create --name lb-mgmt-subnet --allocation-pool start=$OCTAVIA_MGMT_SUBNET_START,end=$OCTAVIA_MGMT_SUBNET_END lb-mgmt-net $OCTAVIA_MGMT_SUBNET neutron port-create --name octavia-health-manager-listen-port --binding:host_id=$CONTROLLER_HOSTNAME lb-mgmt-net MGMT_PORT_ID=$(neutron port-show octavia-health-manager-listen-port | awk '/ id / {print $4}') MGMT_PORT_MAC=$(neutron port-show octavia-health-manager-listen-port | awk '/ mac_address / {print $4}') echo $MGMT_PORT_ID echo $MGMT_PORT_MAC sudo ovs-vsctl -- --may-exist add-port br-int o-hm0 -- set Interface o-hm0 type=internal -- set Interface o-hm0 external-ids:iface-status=active -- set Interface o-hm0 external-ids:attached-mac=$MGMT_PORT_MAC -- set Interface o-hm0 external-ids:iface-id=$MGMT_PORT_ID sudo ip link set dev o-hm0 address $MGMT_PORT_MAC sudo dhclient -v o-hm0
Artyom
что я упустил?
NS 🇷🇺
парни, нид хел. при живой миграции теряются пакеты у ВМ, выделенные нетворк ноды. В логах ничего вразумительного не видно. Пинг проваливается когда на обоих хостах инт встоет в ап и возобновляется когда добавляются различные флоу и иптейблс правила на дест хосте
NS 🇷🇺
Думал, так и должно быть.
ну с DVR сетями мы максимум 1 пинг теряем, а с выделенными нетворками чет больно
J
ну с DVR сетями мы максимум 1 пинг теряем, а с выделенными нетворками чет больно
А инстансы, стало быть, с белыми\плавающими адресами?
NS 🇷🇺
А инстансы, стало быть, с белыми\плавающими адресами?
да тут все сложнее проблема внутри в одном л2 роутер допинговаться вм не может по ее фиксед адресу
NS 🇷🇺
берем две вм в одной сети, с 1 пингуем 2, в это время запускаем миграцию 2 .... в процессе миграции пинг между 1 и 2 пропадает
Алик Сережевич
https://ask.openstack.org/en/question/96765/during-live-migration-instance-is-not-able-to-ping-or-ssh/
NS 🇷🇺
https://ask.openstack.org/en/question/96765/during-live-migration-instance-is-not-able-to-ping-or-ssh/
Это я видел и баг ещё в редхат есть, но чёт не растет кокос
Aleksey
есть тут кто rally контейнер собирал из гита?
NS 🇷🇺
есть тут кто rally контейнер собирал из гита?
у меня коллега собирал, откуда хз
Aleksey
у меня коллега собирал, откуда хз
у меня сборка валится в ошибку из-за несоотвествия setup.cfg и pbr Можешь уточнить, не сталкивался?
NS 🇷🇺
у меня сборка валится в ошибку из-за несоотвествия setup.cfg и pbr Можешь уточнить, не сталкивался?
не сталкивался, говорит проверь версию pbr должна быть определенной версии и питон у него не 3 =)
Aleksey
не сталкивался, говорит проверь версию pbr должна быть определенной версии и питон у него не 3 =)
таки я же не локальный тяну, а беру их докерфайл с from ubuntu 16.04 короче мдя….
Pavel
Именно ралли на бубунте
Aidar
Добрый день. в train neutron tenant_networks на linux_bridge + vlan поддерживается еще или только openvswitch?
Aidar
сейчас есть линукс бридж br-vlan который подключен к физическому интерфейсу bond0
Aidar
# brctl show bridge name bridge id STP enabled interfaces br-mgmt 8000.001e67d820c0 no bond0.202 br-vlan 8000.001e67d820c0 no bond0
Aidar
не пойму как настроить его в linux_bridge_agent
Aidar
пробовал так, но агент создает только не тегированные порты [linux_bridge] physical_interface_mappings = physnet1:br-vlan bridge_mappings = physnet1:br-vlan
Pavel
у нас работает
Aidar
А как правильно настроить его в агенте? нужны обе опции physical_interface_mappings, bridge_mappings или какая-то одна?
Pavel
[linux_bridge] physical_interface_mappings = default:{{ .Values.neutron.default_interface }}
Pavel
других мапингов нет