Anonymous
@sysMD будет жить. Поприветствуем!
Anonymous
Добрый вечер всем.
Anonymous
Подскажите пожалуйста. Может кто такую связку делал. Хочу ceph к oVirt подключить. В такой схеме можно обойтись без keystone ?
Anonymous
Не получается заставить ovirt подставлять в запросы tenand_id
Anonymous
Он шлет все время .../v2//
Anonymous
Спасибо
Anonymous
@ev93n будет жить. Поприветствуем!
Timur
народ, если вдруг кому-то интересно развивать инфраструктурное облако на опенстеке и пилить свой драйвер под libvirt-lxc - велком в личку
Aidar
Всем привет. Кто-нибудь сталкивался с такой шибкой в queens: ERROR oslo_db.sqlalchemy.engines DBConnectionError: (pymysql.err.OperationalError) (2013, 'Lost connection to MySQL server during query') [SQL: u'SELECT 1']
Aidar
Это лог nova-api
Aidar
При этом вроде и база доступна и нова отдает списки виртуалок, но процесс создания виртуалки зависает и через 5 минут отваливается
Aidar
из ошибок вроде только это сообщение
J
из ошибок вроде только это сообщение
А балансировщик используешь?
J
Наследство :)
Ой, не люблю когда так выходит)
Aidar
haproxy
Aidar
listen galera_cluster bind ha_ip:3306 balance source option tcpka option httpchk option tcplog server host1 ip1:3306 check port 9200 inter 2000 rise 2 fall 5 server host2 ip2:3306 backup check port 9200 inter 2000 rise 2 fall 5 server host3 ip3:3306 backup check port 9200 inter 2000 rise 2 fall 5
Aidar
конфиг haproxy для базы
J
listen galera_cluster bind ha_ip:3306 balance source option tcpka option httpchk option tcplog server host1 ip1:3306 check port 9200 inter 2000 rise 2 fall 5 server host2 ip2:3306 backup check port 9200 inter 2000 rise 2 fall 5 server host3 ip3:3306 backup check port 9200 inter 2000 rise 2 fall 5
А, haproxy. Ну и забей. Вроде тут разбирали эту историю в начале лета чтоль) Нова хочет держать соединение открытым все время, а haproxy по client таймауту рвет соединение, потому что оно и не нужно как бы в данный момент.
J
Вроде, как-то так было)
Aidar
тогда не понятно почему вм не создается
Aidar
ок буду дальше искать
J
Во, гляди. https://stackoverflow.com/questions/37407021/i-use-haproxy-as-banlancer-for-mariadb-cluster-but-got-lost-connection-during-qu
Danila
Коллеги, правильно я понимаю что qos в pike подключается в нейтроне отдельным плагином ?
NS 🇷🇺
Да
Danila
спс
Aleksey
Люди, никто не сталкивается с рандомными логаутами в квинсе?
Aleksey
А memcached используете? Мож с ним беда?
используем, но в чём может быть с ним беда?
J
используем, но в чём может быть с ним беда?
Не отдает закэшированные токены типа.
Aleksey
крайний тест был сделан с 1м keystone, 1м memcached и 1м хорайзеном со своим memcached
Aleksey
а насколько будет плохо иметь keystone без memcached?
J
а насколько будет плохо иметь keystone без memcached?
Да не сильно плохо, так то. Просто если в нем дело, это ж не повод убирать) Разобраться только.
Aleksey
Да не сильно плохо, так то. Просто если в нем дело, это ж не повод убирать) Разобраться только.
возможно я ловлю разные ошибки, но как минимум одна воспроизводится так: 1. ребутаешь хорайзен 2. заходишь в него и проходишь в project/images
Aleksey
по тебагу там ходит /api/policy логаут с ошибкой
Aleksey
ан нет, кэш уже отключен
Александр
An unexpected error prevented the server from fulfilling your request. (HTTP 500) (Request-ID: req-d8707386-32fb-4ed4-91a7-7b1cc793e68c) Гори ваш попенстек синим пламенем
Александр
После обновы
Александр
У меня все, пошел плакать
Aleksey
Да не сильно плохо, так то. Просто если в нем дело, это ж не повод убирать) Разобраться только.
есть ещё идеи по этому поводу? мемкеш для keystone получается что исключен
Aleksey
Да не сильно плохо, так то. Просто если в нем дело, это ж не повод убирать) Разобраться только.
вот поправьте меня если я где-то ошибаюсь. - У Horizon есть свой RBAC, который описаны в файлах policy. - При аутентификации Horizon запрашивают пользовательский токен, а с ним же прилетает ещё куча атрибутов типа, domain, admin, catalog и т.д. - Далее эти атрибуты накладываются на RBAC Horizon и мы либо куда-то получаем достуи, либо нет. Вот у меня есть ощущение что где-то эта проверка работает плохо
Aleksey
и да, забыл добавить, чаще всего проявляется именно после рестарта horizon
Aleksey
Может быть в policy glance-а? Policy должны совпадать в папке сервиса и горизонта.
проблема плавающая и происходит не только при переходе на /project/images, на на любой url где проихводится по моему POST на /api/policy
Nick
Привет! Заводил сетки и случаянно указал не тот segmentation_id, есть ли способ его теперь поменять? neutron net-update не дает
Andrey
Это всё-таки самый безопасный способ.
Nick
вариант вполне
Nick
а какие еще есть?
Dmitry
база
Andrey
Можно править в базе, но нет гарантий, что изменения подсосутся
Dmitry
но надо понимать где и что менять
Andrey
Точнее даже так - они точно не подсосутся и нужно будет их каким-то образом (хз каким) популейтить
Nick
оки, лучше пересоздам
Nick
спасибо
UserHost
Вечер добрый, коллеги. Вопрос имеется, когда создаются виртуальные машины instances, они попадают на одну node. Соответственно, если возможность средства ми OpenStack задать такое условие, чтобы instances одного клиента с одинаковой конфигурацией распределялись равномерно по несколько nodes, а не создавались на одной? Пока думаю как правильно гуглить, составить запрос на англ, буду благодарен за помощь
Andrey
https://docs.openstack.org/python-openstackclient/latest/cli/command-objects/server-group.html
UserHost
https://docs.openstack.org/python-openstackclient/latest/cli/command-objects/server-group.html
Прошу прощения а можно пример или немного подробнее, может есть презентация. Пока не могу представить как это автоматизировать
Andrey
Что значит автоматизировать? Чтобы если клиент создаёт node01 и node02 стек автоматически объединял их в группу?
UserHost
Что значит автоматизировать? Чтобы если клиент создаёт node01 и node02 стек автоматически объединял их в группу?
Нет, клиент не создает ноды. Он создает instances с одним и тем же flavors и они создаются не на одной node, а на разных nodes. Чтобы если накроется node (железо крякнет), клиент не потерял все созданные instances, хранящие на данной ноде. Сейчас ситуация такова, что есть некоторые клиенты, у которые есть tenants (aka projects), в них instances с одинаковой конфигурацией находятся на одном железе (node)
Andrey
Я понял, можете дальше не пояснять
Andrey
Если хотите автоматом, то мне видится только решение через кастомный фильтр скедулера. Но я бы оставлял создание сервер групп на совести заказчика
Andrey
Может быть коллеги подскажут решение лучше.
✠ FLASh ✠
Вечер добрый, коллеги. Вопрос имеется, когда создаются виртуальные машины instances, они попадают на одну node. Соответственно, если возможность средства ми OpenStack задать такое условие, чтобы instances одного клиента с одинаковой конфигурацией распределялись равномерно по несколько nodes, а не создавались на одной? Пока думаю как правильно гуглить, составить запрос на англ, буду благодарен за помощь
вообще-то распределением инстансов занимается nova-scheduler автоматом. Для скедулера можно пилить правила - это один. Два - админ может руками выбирать хоста инстанса. Три - если клиент сам спаунит инстансы и их не так уж и много то можно руками мигрировать их на другие ноды.
UserHost
Если хотите автоматом, то мне видится только решение через кастомный фильтр скедулера. Но я бы оставлял создание сервер групп на совести заказчика
Да, пока тоже вижу, пусть клиент сам выбирает, чтобы было доступно в веб интерфейсе. Но возможно лучше вообще сделать это автоматически, чтобы меньше сегментировать клиентов по качеству обслуживания
UserHost
Пока нашёл дискуссию на конференции 2016 подобный вопрос рассматривали https://aspiers.github.io/openstack-summit-2016-austin-compute-ha/#/comparison По итогам есть не завершенная статья в wiki https://docs.openstack.org/ha-guide
Arkadiy
Можно просто AZ привязывать к проекту, даже фильтр писать не придётся
Dmitry
а зачем фильтр - если нативное решение - это антиаффинити?
✠ FLASh ✠
поддержу - забыл про антиаффинити
Dmitry
если пользователи хотят, чтобы два одинаковых инстанса были гарантировано на двух железках - советую сделать две зоны доступности и научить их выбирать нужную при создании
Dmitry
Если хотите автоматом, то мне видится только решение через кастомный фильтр скедулера. Но я бы оставлял создание сервер групп на совести заказчика
на одном нам с тобой хорошо известном проекте - запросы были такие, что фильтры *** писать 🙂 скриптик в питончике, групки машинок в экселе от Б. и поехал распределять. Потом миграция, да 🙂
Aleksey
😂
Anonymous
@lasto_f будет жить. Поприветствуем!