Dmitry
Такого не видел.
P
Может ли это быть просто отвал по таймауту из-за тормозов виртуалки? В данный момент у него 2 ядра процессора и 16G памяти.
P
забавно, что дашборд доступен по http, авторизация пользователя admin с паролем из keystonerc_admin проходит, но дальше показывает какую-то хрень:
P
Проверь сертики.
В смысле? Там вроде в дефолте по ключу --allinone инсталляция делается без ssl - или я неправильно понял фразу?
P
Может ли это быть просто отвал по таймауту из-за тормозов виртуалки? В данный момент у него 2 ядра процессора и 16G памяти.
Кстати, провёл эксперимент ещё раз, увеличив количество ядер до 8 штук и переместив виртуалку на ssd - тот же результат. Видимо, всё-таки, кривые руки.
Денис
Подскажите, пожалуйста, какая взаимосвязь между openstack kuryr и kuryr-kubernetes?
Денис
Пытаюсь понять, нужен ли сервис kuryr на опенстак ноде для интеграции k8s с нейтроном (пока склоняюсь к тому, что это один и тот же сервис)?
Maksimus Ulibikus
Всем привет. Ошибка Flavor's disk is too small for requested image. Flavor disk is 25769803776 bytes, image is 46204452864 bytes. Флавор у меня 24GB. Образ QCOW2 7 гиг. Пытаюсь запустить инстанс с этом образом. Как бы обойти это?
Maksimus Ulibikus
А блин ))
Maksimus Ulibikus
Сорри. Напутал с размерами. Это image больше чем флавор
Maksimus Ulibikus
Нет, не напутал. Образ 10.54 Флавор 24 Почему тогда ругань на то, что image якобы 43 гига?
NS 🇷🇺
qcow
ну вот и ответ, qemu-img info на него и он вам скажет реальный размер, и он явно не 10,5
NS 🇷🇺
а вангую что 46204452864 bytes.
Maksimus Ulibikus
P
Коллеги, а я правильно понимаю, что основные поставщики openstack перекрыли кислород и убрали из свободного доступа средства для автоматизации установки? Например, у ubuntu был документ, который теперь забыли убрать с китайского сайта (https://www.ubuntu.org.cn/download/cloud/install-openstack-with-autopilot) - сейчас уже устарел, у rhel для установки по их документации нужен доступ к репозитариям, который не входит в триальную подписку. Получается - вариантов развернуть тестовую инсталляцию не существует, кроме packstack и devstack? Ну и полностью вручную, само-собой.
Я и твой кот
Но если у вас нет свободных людей, то лучше просто купить.
P
https://opendev.org/openstack/kolla-ansible/
О, интересная штука, спасибо за ссылку!
Я и твой кот
купить что? =)
Опенстек у российских вендоров
NS 🇷🇺
Опенстек у российских вендоров
Базис, тот который тионикс?
Я и твой кот
Базис, тот который тионикс?
Ну что-нибудь. С поддержкой.
NS 🇷🇺
Ну что-нибудь. С поддержкой.
ну тогда ничего, расходимся
J
ну тогда ничего, расходимся
Поддержать разве что бесконеный поток утекающих из твоего кармана бабок смогут)
Roman
Коллеги, можете подсказать, кто-то успешно реализовывал baremetal as a service на базе OpenStack’а? Можете рассказать про свой опыт с данным функционалом? Задача, которую решаю вкратце состоит в следующем есть несколько тачек (если система зайдет, то их количество увеличиться), нужно разливать на них пользовательскую систему (причём чтобы это пользователь мог делать из horizon’а сам) при этом для каждого проекта необходим отдельный VLAN для изоляции. Система разливается, пользователь вносит необходимые изменения и сохраняет систему в виде образа (тут конкретно возникает вопрос возможно ли это? Т.к. как я понял snapshot’ы или их аналоги не реализованы https://specs.openstack.org/openstack/ironic-specs/specs/not-implemented/snapshot-support.html.). Когда пользователь возвращает узел, он должен отрабатывать кастомный скрипт (менять VLAN и устанавливать PXE загрузку через IPMI в котором он разольется в исходную систему по PXE не через ironic). А также при выделении узла необходимо чтобы он видел не все узлы, на которых развернут Ironic, а только те, которые ему вернет скрипт как свободные (тут возникает вопрос получится ли эту функциональность отбора запихать в Horizon каким-то образом или проще будет работать по API). Хотелось бы понять получится ли что-то подобное реализовать, не залезая очень глубоко в код OpenStack’a и вообще насколько адекватна реализация описанной выше задачи через OpenStack?
Dmitry
Много кто реализовал, даже здесь. До снэпшотов руки не дошли, к сожалению.
Dmitry
Вторую половину вопроса не очень понял, но звучит как https://docs.openstack.org/ironic/latest/admin/multitenancy.html
Dmitry
Вообще не понял, почему половину операций надо делать через ironic, а половину как-то ещё. Чтобы двойной геморрой получить?
Dmitry
Надо постепенно тогда, от простых вопросов к сложным :)
Roman
Вообще не понял, почему половину операций надо делать через ironic, а половину как-то ещё. Чтобы двойной геморрой получить?
Система когда не разлита в образ через OpenStack работает под Linux'ом с суперкомпьютерным шедулером, и там своя отдельная разливка через xCAT со своими конфигами и не хотелось бы её трогать)
Fedor
Снепшоты делаются либо через агента (такого в опенстеке нет, так как мне кажется нет нормальных опенсорсных систем, умеющих в такое), либо можно через СХД, если использовать Ironic совместно с Cinder.
Dmitry
Зачем тогда openstack?
Dmitry
И если цель - создавать образы, почему не сделать на виртуалках? Быстрее и проще же.
Roman
Нет такого удобства как в OpenStack'е для конечных пользователей, нет учёта ресурсов и т.д.
Roman
И если цель - создавать образы, почему не сделать на виртуалках? Быстрее и проще же.
Тогда нужна интеграция с шедулером на уровне гипервизора, чтобы гипервизор понимал какие ресурсы заняты, а какие свободны, а тут просто вернулся array со списком нод на которые можно лить и всё, поехал
Dmitry
Ничего не понимаю, если честно. С каким шедулером, какого гипервизора? Берёшь Нову, создаёшь виртуалку, меняешь внутре что надо, делаешь образ. Профит?
Dmitry
На хрена там bare metal на первом этапе?
Roman
В этом плане да, согласен, это можно сделать и в виртуалке
J
Коллеги, можете подсказать, кто-то успешно реализовывал baremetal as a service на базе OpenStack’а? Можете рассказать про свой опыт с данным функционалом? Задача, которую решаю вкратце состоит в следующем есть несколько тачек (если система зайдет, то их количество увеличиться), нужно разливать на них пользовательскую систему (причём чтобы это пользователь мог делать из horizon’а сам) при этом для каждого проекта необходим отдельный VLAN для изоляции. Система разливается, пользователь вносит необходимые изменения и сохраняет систему в виде образа (тут конкретно возникает вопрос возможно ли это? Т.к. как я понял snapshot’ы или их аналоги не реализованы https://specs.openstack.org/openstack/ironic-specs/specs/not-implemented/snapshot-support.html.). Когда пользователь возвращает узел, он должен отрабатывать кастомный скрипт (менять VLAN и устанавливать PXE загрузку через IPMI в котором он разольется в исходную систему по PXE не через ironic). А также при выделении узла необходимо чтобы он видел не все узлы, на которых развернут Ironic, а только те, которые ему вернет скрипт как свободные (тут возникает вопрос получится ли эту функциональность отбора запихать в Horizon каким-то образом или проще будет работать по API). Хотелось бы понять получится ли что-то подобное реализовать, не залезая очень глубоко в код OpenStack’a и вообще насколько адекватна реализация описанной выше задачи через OpenStack?
Систему готовь на виртуалке лучше или через какие-нибудь инструменты типа buildroot или diskimage-builder.
J
Преимуществ у ручной подготовки образа на железе ноль, а возни очень много.
J
Неудобно готовить, неудобно сниамть образ, потенциалные проблемы из-за того что образ снят не с чистой системы.
Dmitry
Есть ещё всякий guestfish/virt-builder/virt-sysprep
J
И да, непонятно чо за тема такая с самописными скриптами и ручной фильтрацией хостов. Не проще разве через интеграцию с nova это все делать?
Roman
В целом да, как вариант, я не очень глубоко в OpenStack сейчас разбираюсь, просто пока прорабатываю тестовую систему
J
В целом да, как вариант, я не очень глубоко в OpenStack сейчас разбираюсь, просто пока прорабатываю тестовую систему
Так почему использование готовых инструментов это не приоритетный вариант? С ними, если что, можно по документации разобраться или совета спросить. А если сунуться спрашивать почему самописное не работает, пошлют в самые разные места.
J
Звучит задача так как будто нужна обычная установка glance + nova + ironic. Ну и возможно что host aggregates или фильтрация через трейты.
Roman
Просто сейчас это работает таким образом (без openstack'a на самописных скриптах dnsmasq, rabbitmq и clonezill'е поэтому работает плохо и с косяками) и хочется сделать это более человеческим образом
🖖🏼Stas
А кто то изучал вопрос memcached vs redis в опенстек развертке на ~500 compute нод? Сейчас memecached и проблем не знаем, но хочется кластера и гибкости конфигурации.
Pavel
mcroute + политики.
J
Not this shit again
Pavel
Not this shit again
Оно есть всегда, пока существует вентилятор...
Stanley
А чего вы все самое вкусное без меня съели? :) «можем повторить»
Dmitry
Наповторялись уже, давайте лучше openstack устанавливать.
Pavel
А что его устанавливать. Стоит, работает. Главное не трогать.
NS 🇷🇺
Российский? От ВТБ? :)
пока только тионикс предлагали
NS 🇷🇺
есть даже версия в кубере
Pavel
Российский? От ВТБ? :)
Ымпортный. От ОпенСтек.
Dmitry
По телювизору же сказали: время возможностей! Вот кто бы здесь взял и создал нового вендора.
Dmitry
Без буллшита, зато с оперсорсом.
Pavel
Без буллшита, зато с оперсорсом.
А нахера тогда вендор? Без булшита то... За это не платят.
NS 🇷🇺
Без буллшита, зато с оперсорсом.
это надо много хороших инженеров из разных мест поснимать ,потом их склеить
Dmitry
Склеить инженеров, бррр
Stanley
И с дырочкой в левом боку, ага. :) Ничего, тут главное успеть йогу качнуть пока краник не закрыли...
🖖🏼Stas
NS 🇷🇺
Склеить инженеров, бррр
команду склепать, которая работает как единое целое
Dmitry
Аааа.. а то я себе уже опенстековскую многоножку представил
NS 🇷🇺
Аааа.. а то я себе уже опенстековскую многоножку представил
ну ассоциация подходящая. Ты прикинь эта дура шагнет не той ногой, она падает с грохотом