Сергей
Так, всё, Opennebula наше всё! https://www.youtube.com/watch?v=47Mht_uoX3A&feature=youtu.be 🙂
J
Если не пакеты, то что?
Собранные из репозиториев venv или контейнеры, но контейнеры для подобных вещей эт не моя тема.
J
Собранные из репозиториев venv или контейнеры, но контейнеры для подобных вещей эт не моя тема.
Ну или свои пакеты делать, но это плохая идея, замучаешься с зависимостями.
Сергей
Я шучу. Но мне понравилась серия докладов от Андрея Квапила, в которой он делится как он построил хостинг компанию с kubernetes over LTSP и vm over OpenNebula в Чехии что ли. Делится горой технических подробностей и причинами принятия решений. https://habr.com/ru/post/423785/ и его видео об этом https://www.youtube.com/watch?v=yGKI5JoKMUY&feature=youtu.be. Цитата: "открытых проектов под данные задачи 2: openstack и opennebula. Openstack это 20 миллинов строчек кода и документация в виде Read The Fucking Sources. Opennebula состоит из 200 тысяч строк кода и документация у неё отличная." Интересно поглядеть поближе на драйверы на bash 🙂
Serhii
Есть ещё cloud stack
чёт не видел раньше чтобы его ставили на равне с OpenStack / OpenNebula пробовал?
Dmitry
Есть ещё cloud stack
а он жив вообще?
NS 🇷🇺
Да
Denis
Может кому будет полезно: HPE Reference Architecture for Red Hat OpenStack Platform on HPE Synergy with Ceph Storage - https://h20195.www2.hpe.com/V2/GetDocument.aspx?docname=a00071087enw
Hello
Искренне надеюсь, что за джуниорские вопросы отсюда не гонят ссаными тряпками. Имеется rocky на трёх физических машинах: один контроллер, две компьют ноды. Не заводятся инстансы, ругается нейтрон. Говорит что не может забиндить порт под инстанс, если я его правильно понял. ERROR neutron.plugins.ml2.managers [req- ... - default default] Failed to bind port ... on host compute1 for vnic_type normal using segments [{'network_id': '...', 'segmentation_id': None, 'physical_network': u'provider', 'id': '...', 'network_type': u'flat'}]. ... - айди соответствующих сущностей. Уверен, что причина максимально тривиальна, и заключается в моей криворукости, поскольку установка вся проводилась на чистых системах, строго по мануалу с офсайта, минимальномый деплой. Предполагаю, что проблема в настройке самого нейтрона, поскольку мануал прерывается на том, что все заработало, и как правилно создавать сети внутри проекта написано недостаточно явно(либо я плохо искал). Спасибо, если прочитали, и хорошего понедельника!
Vadim
Hello ставили с openvshwitch?
Hello
Maksim
Искренне надеюсь, что за джуниорские вопросы отсюда не гонят ссаными тряпками. Имеется rocky на трёх физических машинах: один контроллер, две компьют ноды. Не заводятся инстансы, ругается нейтрон. Говорит что не может забиндить порт под инстанс, если я его правильно понял. ERROR neutron.plugins.ml2.managers [req- ... - default default] Failed to bind port ... on host compute1 for vnic_type normal using segments [{'network_id': '...', 'segmentation_id': None, 'physical_network': u'provider', 'id': '...', 'network_type': u'flat'}]. ... - айди соответствующих сущностей. Уверен, что причина максимально тривиальна, и заключается в моей криворукости, поскольку установка вся проводилась на чистых системах, строго по мануалу с офсайта, минимальномый деплой. Предполагаю, что проблема в настройке самого нейтрона, поскольку мануал прерывается на том, что все заработало, и как правилно создавать сети внутри проекта написано недостаточно явно(либо я плохо искал). Спасибо, если прочитали, и хорошего понедельника!
ограничь интерфейс для VNC консоли в nova-compute.conf У нас такое было, когда порт для VNC выделялся на всех интерфейсах, а не только на интерфейсе виртуалки
Maksim
если не ошибаюсь то vncserver_listen=${тут ip гипервизора} в nova.conf
Vadim
Hello а тут что ? # cat /etc/neutron/plugins/ml2/ml2_conf.ini | grep mechanism_drivers
Vadim
а в конфиге linuxbridge_agent.ini physical_interface_mappings ?
Vadim
enp3s0 есть и поднят на целевой compute ноде?
Hello
Да, на всех нодах одинаково названы интерфейсы
Vadim
а в ml2_conf.ini type_drivers ?
Hello
type_drivers = flat,vlan
Vadim
а сосздаете через horizon или cli?
Hello
Через horizon
Vadim
если октрыть сеть, в которую подключаетесь, в horizon под админом, скиньте скрин первой вкладки
Vadim
не, нужно типа такого
Hello
Hello
У вас есть айди сегментации... Где, интересно, я свой потерял?
Vadim
у вас flat, там нет тегировния, все норм
Vadim
нужно включить debug=true в neutron.cong, и попробоавть еще воспроизвести, и скиньте логи в pastbin, например
Hello
у вас flat, там нет тегировния, все норм
спасибо, сейчас попробую
Vadim
и linuxbridge-agent.log c ноды, где попытается создаться инстанс тоже приложите
Hello
Да, как я и был уверен, дело в криворукости. Большое спасибо за направление, на compute ноде неправильно прописал физический интерфейс...
Hello
два дня смотрел, не мог увидеть..
Vadim
Hello 👍 это, кстати, самая часта причина) поэтому с маппинга начинаю смотреть всегда
Hello
Hello 👍 это, кстати, самая часта причина) поэтому с маппинга начинаю смотреть всегда
Я причем был абсолютно уверен, что проверил там уже все три раза. Но вот когда не нашел linuxbridge-agent.log на ноде - понял что что-то не так.. Ещё раз спасибо!
J
Привет, ребята. Подскажите по винде. Я где-то, наверное, нахуевертил с cloudbase-init - после ребилда инстансов с виндой то ли метаданные не обновляются новым паролем то ли уже существующий в метаданных cloudbase-init игнорирует. И получается что нужно пересоздавать, а не просто ребилд делать.
Vadim
@j52089ec7e87 а storage backend какой?
Vadim
CEPH?
Vadim
а если ceph он не обновляет volume
Vadim
https://superuser.openstack.org/articles/rebuilding-an-openstack-instance-and-keeping-the-same-fixed-ip/
J
а если ceph он не обновляет volume
Вообще не то. Проблема с паролем, а не с ребилдом как таковым.
J
эфемерный root на lvm.
Vadim
а, я подумал у вас он (cloudinit) вообще не отрабатывает при ребилде, понятно
Anton
Коллеги, обнаружили неприятную особенность виртуализации ovirt/openstack.. если запустить tcpdump то сбрасывается в ноль net.ipv4.conf.eth0.forwarding = 0 На том интерфейсе, на котором запускали tcpdump
Anton
Есть ли какой-то fix? На VMware такой истории не было :-(
Anton
проверили на варе, кейс не воспроизводиться
Andrey
хотя да, если вспомнить что опенстек создали в наса, а все наши беды от америкосов - то все сходится)
Anton
Red Hat Enterprise Linux Server release 7.7 (Maipo)
Anton
virt-what ovirt kvm
Anton
вроде нашли fix
Anton
в конфиг интерфейса в systemd-networkd добавили IPForward = True
J
Причину надо бы узнать.
NS 🇷🇺
а меня больше интересует зачем там 1
NS 🇷🇺
ну в опенстеке, за овирт хз, давно в него не ходил
Anton
https://github.com/systemd/systemd/issues/6184 подсказывают что оно
Anton
по идее массово можно разлить IPForward=kernel
Anton
Примечание: systemd-networkd (Русский) предоставляет новую семантику пересылки в версии 220/221. [1] Если вы используете systemd-networkd для управления сетевыми интерфейсами, оно перекроет настройки net.*.ip_forward, по умолчанию выключив пересылку. Чтобы оно принимало вышеописанные настройки, нужно задать IPForward=kernel в конфигурационном файле интерфейса systemd-networkd (смотрите systemd.network(5) для дополнительной информации).
Andrey
причина замечательна, systemd обвес пытаются сделать слишком умным.
J
причина замечательна, systemd обвес пытаются сделать слишком умным.
Ёбаный говна кусок, в каждом релизе подлянка.
Tamerlan
Ёбаный говна кусок, в каждом релизе подлянка.
>Ёбаный говна кусок so far это мой опыт с опенстаком в целом
J
>Ёбаный говна кусок so far это мой опыт с опенстаком в целом
Ну да. Но опенстек эт опенстек. А systemd-networkd эт критичный теперь уже компонент ОС.