J
Если вспомню напишу.
J
Аааа
J
ах нейтрон, днина ты донная
Слушай чо. А сколько у тебя dhcp агентов на сеть?
J
И где расположены?
Pavel
Слушай чо. А сколько у тебя dhcp агентов на сеть?
нене, всё мапится, это симптом HA DHCP, которых два на сеть
Pavel
короче всё это дело это походу симптом DVRa, как только у тебя есть порт в сетку где есть роутер (на любой ноде гейтвей или компьют), у тебя там создается qrouter ns
Pavel
dhcp порт считается
Pavel
gtw03.privatecloud.lon1.customer.com: gtw02.privatecloud.lon1.customer.com: gtw01.privatecloud.lon1.customer.com: qrouter-4dda99e6-3a4b-49ef-8ca9-44134b545f74 (id: 374) snat-4dda99e6-3a4b-49ef-8ca9-44134b545f74 (id: 373)
Pavel
если вырубить dhcp
Pavel
нормас, спасибо что побыли уточкой
Илья | 😶☮️🐸
Создавать сущности везде, потому что вдруг понадобятся
Pavel
Так, а это разве не ок ?
ну, если по-хорошему, то зачем dhcp агенту в роутер нс?
Pavel
достаточно иметь флоу который загонит dhcp запросы с br-int в qdhcp нс
Pavel
короче правильный ответ - разогнать dhcp агенты по компьютам
Pavel
или вырубить HA и шедулить всегда рядом с роутером на л3 агенте чтобы экономить qrouter дырки
Pavel
вообще настоящая проблема конечно же вот эта
Pavel
Сам вопрос растёт от того что мы приближаемся к лимиту 1500 портов на нетворк нод, после которого ovsdb начинает себя плохо вести (выявлено нагрузочным тестированием)
Pavel
но у нас нет мозгов чтобы расковырять её нормально, овёс это дебри
Я и твой кот
Отчего-то давно на глаза не попадались попытки сравнить производительность разных гипервизоров. Тут вижу два варианта: или все наигрались, или разница в итоге около нулевая. Однако нет! Есть ещё порох в пороховницах и линейки у измеряльщиков! В этот раз в бою сошлись VMware vSphere 7 Update 2 и Red Hat OpenShift 4.9. Мерилом послужила метрика VM Density. Если по-русски: сколько машин можно напихать в лабу до того как их производительность упадёт ниже определённой отметки. TL;DR: Плохие новости для сторонников красных шляп. Решение от вары оказалось в разы (не на несколько процентов, а в разы) производительней. Ну вот как-то так... https://www.principledtechnologies.com/Vmware/vSphere-7U2-vs-Red-Hat-OpenShift-4-9-0322.pdf
AcidMan
мне кажется, или они тёплое с мягким сравнили?
Я и твой кот
Не кажется. Совершенно верно. С другой стороны, с точки зрения условного IT директора, увидев, что какой-то продукт поддерживает виртуализацию, он сразу будет думать, что это тоже самое, что и VMware. И от этого выстроит свои ожидания от продукта.
Sergey
OpenShift это же модификация кубера?
Dmitry
Ну да.
Dmitry
Но там есть https://kubevirt.io/
AcidMan
OpenShift это же модификация кубера?
это платформа с кубером. модификаций там немного. они за стримом следят и оперативно достаточно мерджатся
Рамиль
тут эта, собрались вендорский софт для docker registry замещать на OSS . https://t.me/harbor_ru го если есть чо рассказать или спросить по harbor
Monsieur
Подскажите, что делать c эластиком, который колла поставила. Эластик стоит на контролах со всеми остальными сервисами на одном диске. Когда места на диске мало, то эластик переводит индекс в read-only и куратор не может удалить старые индексы. Когда место освобождается, то эластик сам не возвращает в read-write и уже эластик забивает диск. Приходится руками разрешать удаление и потом куратор может чистить. curl -X PUT -H "Content-Type: application/json" http://172.....:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}' elasticsearch-6.8.20.jar:6.8.20 Ошибки куратора 2022-03-04 16:50:32,974 INFO Closing 6 selected indices: ['flog-2022.02.22', 'flog-2022.02.27', 'flog-2022.02.24', 'flog-2022.02.26', 'flog-2022.02.25', 'flog-2022.02.23'] 2022-03-04 16:50:33,008 ERROR Failed to complete action: close. <class 'curator.exceptions.FailedExecution'>: Exception encountered. Rerun with loglevel DEBUG and/or check Elasticsearch logs for mor e information. Exception: AuthorizationException(403, 'cluster_block_exception', 'blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];') Как гарантированно можно удалять старые индексы? Убрать вот прям сейчас эластик не могу на сторонний сервер.
привет а есть представление как средствами только kolla вынести ELK на отдельные сервера? в HA с VIP'ом и т.д
icinga
хочется отдельный вип под елк, отличный от основного?
Monsieur
конечно особого смысла через control-ноды ходить до ELK'и не вижу смысла
Monsieur
пардон за тавтологию
icinga
хз как красиво, но самое тупое - добавить в инвенторку ноды эластика в соответствующую группу, захардкодить elasticsearch_address, чтобы все остальные знали где он и рукой поднимать отдельный кипэлайв под эластиковый вип(
Monsieur
в общем, разработчики kolla говорят, что вынести на отдельную ноду можно, но VIP отдельный пока нет (что, в принципе, очевидно, если playbook'и глянуть)
Monsieur
возможно, попробуем занести в upstream они, по-крайне мере, сами заинтересованы в полной сепарации ELK'и
Andrey
но VIP-то останется тем же :)
Колла гибкая, можно думаю попробовать настроить. Конфиг для keepalived прописать приписать в config.
Monsieur
не, там без костылей жирных не получится проще сразу хорошо делать
Ilya
не, там без костылей жирных не получится проще сразу хорошо делать
+1. Хорошо бы универсальную конструкцию замутить, где в инвенторке описывается n кластеров keepalived. И чтобы можно было распределять сервисы, которым нужны випы, на разные кластеры. Задача вроде бы решаемая.
Vyacheslav
Так в колла вип на Нетворк ноде ставится haproxy после проксирует в ваш сервис
CruelPunk
Добрый вечер. WARNING nova.compute.manager While synchronizing instance power states, found 10 instances in the database and 5 instances on the hypervisor в чем может быть проблема и куда копать?
Andrey
Есть вм с дисками новы, как запретить к этой вм атачить диски из циндера?
Vyacheslav
Ещё HR приходят 🙂
CruelPunk
сверить надо какие VM есть в openstack cli и в virsh list --all --uuid
Уже сверял. Какие шаги дальше стоит предпринять?
Alexandra
Ещё HR приходят 🙂
Инженер по ремонту пк и сети) Александра очень приятно) так же и hr в билайне)
NS 🇷🇺
Vyacheslav
Уже сверял. Какие шаги дальше стоит предпринять?
если разницы нет - попробуйте мигрировать с хоста все VM скорее всего исправит в базе
Alexandra
и на полставочки операционист в Зеленом банке? =)
Вот зальёте ноут кофейком, обращайтесь😉
Илья | 😶☮️🐸
Вот зальёте ноут кофейком, обращайтесь😉
Архивный тариф забрали, помогите
NS 🇷🇺
Архивный тариф забрали, помогите
тебе придется продать себя в рабство опенстек братству пчелайна =)
NS 🇷🇺
а если есть разница?)
смотря какая =)
CruelPunk
Ну если в количественном то соответственно в virsh их меньше раза в 2
AcidMan
Разместила специально)
а чо денег то? 😂
AcidMan
выглядит как мерседес )))
Vyacheslav
Ну если в количественном то соответственно в virsh их меньше раза в 2
пройдитесь по всем compute и найдите есть ли отсутствующие VM в других местах
Fedor
выглядит как мерседес )))
Я ничаяно. Думал что сразу удалил)
CruelPunk
пройдитесь по всем compute и найдите есть ли отсутствующие VM в других местах
они в единственном экземпляре и только на этом узле
Vyacheslav
т.е. у вас по факту есть часть машин, которые не запущены на ноде и больше их нигде нет?
Vyacheslav
так сделайте им openstack reboot --hard
Vyacheslav
тогда там надо разбираться чего не хватает, обычно это презент диска
CruelPunk
Благодарю. Глянем
Vyacheslav
ну и скорее всего раз они попадали в ERROR теперь ошибки уже нет
Vyacheslav
Есть вм с дисками новы, как запретить к этой вм атачить диски из циндера?
а какой кейс вообще в таком случае если у тебя падение "случайной" ноды вырывает диски у совсем других VM и так же наоборот - падение ноды, уносит VM, но не их диски (эвакуция спасёт часть) в таком случае кажется логичным просто использовать локальные диски и эфимеры
Andrey
Ну а чо б не добавить её?
Это самое правильное решение, но портов нету и их еще надо купить.
Andrey
А если вланом просто подать?
Так не получиться из-за организации сети