citius
делал пошагово по доке https://docs.openstack.org/project-deploy-guide/openstack-ansible/pike/
citius
у них там "git clone -b 16.0.1" - вот так и делал )
citius
не везет мне с OSA. я свой набор ролей осилил написать, а вот OSA осилить никак не могу. ) все хочу слезть с велосипеда и юзать готовое.
J
Я к тому все спрашиваю что может там поломанное оно. Похоже что какие-то мутные истоии происходят с присваиванием имен veth парам.
citius
ок, что из 16 ветки точно пригодно?
J
Тьфу блин на них. как и везде мож путаница в доках. Склонируй все целиком, а потом сделай checkout на stable/pike) У меня вот прям щас на ноуте пачка виртуалок где pike развернутый openstack-ansible.
J
Так что, должно б работать.
J
За исключением мелких косяков все ок.
citius
ехма. попробую, спасибо. а чтобы текущие хосты зачистить от старых каках достаточно lxc-containers-destroy.yml прогнать?
J
По идее, да. Но может оказаться что чот останется.
J
Я поэтому свежий и решил в виртуалках пробовать, их если что можно просто пересоздать за 30 секунд и заново все ставить.
J
Там с самими хостами чо делается то. Neutron Агенты на compute нодах, haproxy, вот это все.
citius
ну а шо делать то ( другого нет
J
Другого?
J
Мне вот чо на ум еще пришло. Слинукс бриджом то и не пробовал. У меня openvswitch.
citius
ну в смысле что у опенстека альтернативы особой нет.
citius
а линуксбридж я юзал - в своих ролях как раз. нормально работало все, дебажить несложно.
J
А) Да он норм вроде. Политики многовато среди разработчиков.
J
а линуксбридж я юзал - в своих ролях как раз. нормально работало все, дебажить несложно.
А чо, он прям вот именно под linux bgidge agent где-то контейнер создает? или там речь про neutron-agents-container?
citius
да, sd-os-03_neutron_agents_container-77f3254a
J
Можешь в качестве обходной меры заставить его всех агентов прямо на хост ставить.
J
В /etc/openstack_deploy/env.d создаешь чо-нибудь типа neutron-agents.yaml. А там: neutron_agents_container: properties: is_metal: true
citius
крч тоже самое - sd-os-03_neutron_agents_container-77f3254a файлед )
citius
да, на железо я тоже хотел попробовать. спс )
citius
как раз сетевая нода у меня выделенная, и там контейнеры вообще по идее не вперлись никуда.
J
крч тоже самое - sd-os-03_neutron_agents_container-77f3254a файлед )
Ну завтра тогда можно поразбираться будет) Я чот среди ночи уже плохо соображаю.
J
как раз сетевая нода у меня выделенная, и там контейнеры вообще по идее не вперлись никуда.
Ну тогда и хрен с ними. Агенты пихать в контейнеры - вообще довольно стремной затеей мне казалось с самого начала)
J
Если чо, названия типов контейнеров можно брать из файлов в openstack-ansible/playbooks/inventory/env.d Секция container_skel
Fox
Все привет! коллеги подскажите, как сбэкапить виртуальную машину на внешний носитель, чтобы перенести в другой инстанс опенстек
Ruslan
Клонируете в образ, загружаете образ
J
Клонируете в образ, загружаете образ
Просто как нарисовать сову)
Fox
Да три виртуалки, простой не критичен
Fox
Попробую клонировать
Fox
В образ
Fox
Raw
Igor
привет всем! а кто то боролся с проблемой, что инстанс иногда получает два приватных адреса?
Igor
по видимому нет)
J
На один и тот же интерфейс получает?
Igor
пока вижу что два порта создалось, один из них в статусе BUILD до сих пор
citius
привет всем! а кто то боролся с проблемой, что инстанс иногда получает два приватных адреса?
было у меня такое - когда инстанс не может заспавниться и его бросает с компьюта на компьют
J
так это вообще не о том. Два порта создается, то есть, вместо одного?
Igor
да
Igor
кажется понятно почему - порт в BUILD не на той компьют ноде, по видимому был решедулинг инстанса
J
Вот, выше как раз про это)
J
Теперь надо выяснять почему так вышло)
Igor
да, смотрю уже)
Igor
по идее он должен быть удалиться при решедулинге?
Evgeny
Может быть это из-за включённого кэширования в scheduler?
Igor
почему неподнялся инстанс понятно, памяти не хватило, но с сетью странно тогда
Igor
вроде оно https://review.openstack.org/#/c/467509/
J
Вот же ебанина(
Igor
пропатчил) проверяю
Igor
а какой memory_allocation_ratio обычно использовать, эмпирически подбирать под задачи? у нас сейчас работает ksm + overcommit_memory включен
J
Больше чем 1.3 не ставил бы у себя. А для публичного хостинга хз, зависит от того насколько заботитесь о клиентах)
Igor
это внутренний сервис, тестовые схемы)
sbog
1.5 нормально, по моему опыту. Но никто не скажет, что у себя ставит, особенно если большая инсталляция. По цпу - 4-8 нормально. По диску - 1.5, но там как раз много тонкостей
J
Дурак или нечистый на руку не скажет)
sbog
Никто в здравом уме не сообщит такие данные на большой публичной инсталляции.
J
поооо-чему?
sbog
Причина простая - оверпровиженинг есть у всех, но никто не хочет признать, что он экономит на кастомерах.
придёт хуй и расскажет - "А глядите - луддит"
sbog
Ну как ты скажешь публично о том, что у тебя, скажем, оверпрвиженинг CPU ~32 на гипервизор? Я бы за такое по щщам бы дал сразу.
sbog
Ну тебе может и такая себе, а вот никто из large deployment group таких данных не сообщает внезапно именно из-за нее
Sergei
Причина простая - оверпровиженинг есть у всех, но никто не хочет признать, что он экономит на кастомерах.
у всех, правда адекватные реорганизуют "горячие" и "холодные" инстансы с тем, чтобы оверпровижионинг не делал анальной боли.
J
да и тут у половины для внутренних нужд опенстек, так что, чо бы не сказать?
sbog
Если для внутренних - то проблем нет, кмк
sbog
Я только про публичные говорил
sbog
у всех, правда адекватные реорганизуют "горячие" и "холодные" инстансы с тем, чтобы оверпровижионинг не делал анальной боли.
Вот это вот "реорганизуют" не работает частенько, потому что это довольно сложно сделать в крупном облаке.
Sergei
но не нерешаемая.
sbog
Ну я лично не видел просто ни разу, чтобы это решили в облаке с опенстеком, буду честен. С удовольствием бы посмотрел и пообщался с теми, кто решил на большом количестве инстансов.
sbog
На контейнерном такое есть чуть ли не в ванильном k8s