citius
делал пошагово по доке
https://docs.openstack.org/project-deploy-guide/openstack-ansible/pike/
citius
у них там "git clone -b 16.0.1" - вот так и делал )
citius
не везет мне с OSA.
я свой набор ролей осилил написать, а вот OSA осилить никак не могу. )
все хочу слезть с велосипеда и юзать готовое.
J
J
Я к тому все спрашиваю что может там поломанное оно.
Похоже что какие-то мутные истоии происходят с присваиванием имен veth парам.
citius
citius
ок, что из 16 ветки точно пригодно?
J
Тьфу блин на них. как и везде мож путаница в доках.
Склонируй все целиком, а потом сделай checkout на stable/pike)
У меня вот прям щас на ноуте пачка виртуалок где pike развернутый openstack-ansible.
J
Так что, должно б работать.
J
За исключением мелких косяков все ок.
citius
ехма. попробую, спасибо.
а чтобы текущие хосты зачистить от старых каках достаточно lxc-containers-destroy.yml прогнать?
J
По идее, да.
Но может оказаться что чот останется.
J
Я поэтому свежий и решил в виртуалках пробовать, их если что можно просто пересоздать за 30 секунд и заново все ставить.
J
Там с самими хостами чо делается то.
Neutron Агенты на compute нодах, haproxy, вот это все.
citius
ну а шо делать то ( другого нет
J
Другого?
J
Мне вот чо на ум еще пришло. Слинукс бриджом то и не пробовал. У меня openvswitch.
citius
ну в смысле что у опенстека альтернативы особой нет.
citius
а линуксбридж я юзал - в своих ролях как раз. нормально работало все, дебажить несложно.
J
А)
Да он норм вроде. Политики многовато среди разработчиков.
citius
да, sd-os-03_neutron_agents_container-77f3254a
J
Можешь в качестве обходной меры заставить его всех агентов прямо на хост ставить.
J
В /etc/openstack_deploy/env.d создаешь чо-нибудь типа neutron-agents.yaml.
А там:
neutron_agents_container:
properties:
is_metal: true
citius
крч тоже самое - sd-os-03_neutron_agents_container-77f3254a файлед )
citius
да, на железо я тоже хотел попробовать.
спс )
citius
как раз сетевая нода у меня выделенная, и там контейнеры вообще по идее не вперлись никуда.
J
Если чо, названия типов контейнеров можно брать из файлов в openstack-ansible/playbooks/inventory/env.d
Секция container_skel
Fox
Все привет! коллеги подскажите, как сбэкапить виртуальную машину на внешний носитель, чтобы перенести в другой инстанс опенстек
Ruslan
Клонируете в образ, загружаете образ
J
Max
Fox
Да три виртуалки, простой не критичен
Fox
Попробую клонировать
Fox
В образ
Fox
Raw
Igor
привет всем! а кто то боролся с проблемой, что инстанс иногда получает два приватных адреса?
J
Igor
по видимому нет)
J
На один и тот же интерфейс получает?
Igor
пока вижу что два порта создалось, один из них в статусе BUILD до сих пор
J
так это вообще не о том.
Два порта создается, то есть, вместо одного?
Igor
да
Igor
кажется понятно почему - порт в BUILD не на той компьют ноде, по видимому был решедулинг инстанса
J
Вот, выше как раз про это)
J
Теперь надо выяснять почему так вышло)
Igor
да, смотрю уже)
Igor
по идее он должен быть удалиться при решедулинге?
Evgeny
Может быть это из-за включённого кэширования в scheduler?
Igor
почему неподнялся инстанс понятно, памяти не хватило, но с сетью странно тогда
Igor
вроде оно https://review.openstack.org/#/c/467509/
J
Вот же ебанина(
Igor
пропатчил) проверяю
Igor
а какой memory_allocation_ratio обычно использовать, эмпирически подбирать под задачи? у нас сейчас работает ksm + overcommit_memory включен
J
Больше чем 1.3 не ставил бы у себя.
А для публичного хостинга хз, зависит от того насколько заботитесь о клиентах)
Igor
это внутренний сервис, тестовые схемы)
sbog
1.5 нормально, по моему опыту. Но никто не скажет, что у себя ставит, особенно если большая инсталляция. По цпу - 4-8 нормально. По диску - 1.5, но там как раз много тонкостей
J
J
Дурак или нечистый на руку не скажет)
sbog
Никто в здравом уме не сообщит такие данные на большой публичной инсталляции.
J
поооо-чему?
sbog
Причина простая - оверпровиженинг есть у всех, но никто не хочет признать, что он экономит на кастомерах.
ⓥ
придёт хуй и расскажет - "А глядите - луддит"
sbog
Ну как ты скажешь публично о том, что у тебя, скажем, оверпрвиженинг CPU ~32 на гипервизор? Я бы за такое по щщам бы дал сразу.
J
sbog
Ну тебе может и такая себе, а вот никто из large deployment group таких данных не сообщает внезапно именно из-за нее
J
J
да и тут у половины для внутренних нужд опенстек, так что, чо бы не сказать?
sbog
Если для внутренних - то проблем нет, кмк
sbog
Я только про публичные говорил
sbog
Sergei
Sergei
но не нерешаемая.
sbog
Ну я лично не видел просто ни разу, чтобы это решили в облаке с опенстеком, буду честен. С удовольствием бы посмотрел и пообщался с теми, кто решил на большом количестве инстансов.
Sergei
sbog
На контейнерном такое есть чуть ли не в ванильном k8s