J
Если вспомню напишу.
J
Аааа
J
И где расположены?
Pavel
короче всё это дело это походу симптом DVRa, как только у тебя есть порт в сетку где есть роутер (на любой ноде гейтвей или компьют), у тебя там создается qrouter ns
Pavel
dhcp порт считается
Pavel
gtw03.privatecloud.lon1.customer.com:
gtw02.privatecloud.lon1.customer.com:
gtw01.privatecloud.lon1.customer.com:
qrouter-4dda99e6-3a4b-49ef-8ca9-44134b545f74 (id: 374)
snat-4dda99e6-3a4b-49ef-8ca9-44134b545f74 (id: 373)
Pavel
если вырубить dhcp
Pavel
нормас, спасибо что побыли уточкой
Илья | 😶☮️🐸
Илья | 😶☮️🐸
Создавать сущности везде, потому что вдруг понадобятся
Pavel
достаточно иметь флоу который загонит dhcp запросы с br-int в qdhcp нс
Pavel
короче правильный ответ - разогнать dhcp агенты по компьютам
Pavel
или вырубить HA и шедулить всегда рядом с роутером на л3 агенте чтобы экономить qrouter дырки
Pavel
вообще настоящая проблема конечно же вот эта
Pavel
Сам вопрос растёт от того что мы приближаемся к лимиту 1500 портов на нетворк нод, после которого ovsdb начинает себя плохо вести (выявлено нагрузочным тестированием)
Pavel
но у нас нет мозгов чтобы расковырять её нормально, овёс это дебри
J
J
Я и твой кот
Отчего-то давно на глаза не попадались попытки сравнить производительность разных гипервизоров. Тут вижу два варианта: или все наигрались, или разница в итоге около нулевая.
Однако нет! Есть ещё порох в пороховницах и линейки у измеряльщиков!
В этот раз в бою сошлись VMware vSphere 7 Update 2 и Red Hat OpenShift 4.9. Мерилом послужила метрика VM Density. Если по-русски: сколько машин можно напихать в лабу до того как их производительность упадёт ниже определённой отметки.
TL;DR: Плохие новости для сторонников красных шляп. Решение от вары оказалось в разы (не на несколько процентов, а в разы) производительней.
Ну вот как-то так...
https://www.principledtechnologies.com/Vmware/vSphere-7U2-vs-Red-Hat-OpenShift-4-9-0322.pdf
Я и твой кот
AcidMan
мне кажется, или они тёплое с мягким сравнили?
Я и твой кот
Не кажется. Совершенно верно. С другой стороны, с точки зрения условного IT директора, увидев, что какой-то продукт поддерживает виртуализацию, он сразу будет думать, что это тоже самое, что и VMware. И от этого выстроит свои ожидания от продукта.
Sergey
OpenShift это же модификация кубера?
Dmitry
Ну да.
Dmitry
Но там есть https://kubevirt.io/
Рамиль
тут эта, собрались вендорский софт для docker registry замещать на OSS . https://t.me/harbor_ru го если есть чо рассказать или спросить по harbor
Monsieur
Подскажите, что делать c эластиком, который колла поставила.
Эластик стоит на контролах со всеми остальными сервисами на одном диске. Когда места на диске мало, то эластик переводит индекс в read-only и куратор не может удалить старые индексы. Когда место освобождается, то эластик сам не возвращает в read-write и уже эластик забивает диск.
Приходится руками разрешать удаление и потом куратор может чистить.
curl -X PUT -H "Content-Type: application/json" http://172.....:9200/_all/_settings -d '{"index.blocks.read_only_allow_delete": null}'
elasticsearch-6.8.20.jar:6.8.20
Ошибки куратора
2022-03-04 16:50:32,974 INFO Closing 6 selected indices: ['flog-2022.02.22', 'flog-2022.02.27', 'flog-2022.02.24', 'flog-2022.02.26', 'flog-2022.02.25', 'flog-2022.02.23']
2022-03-04 16:50:33,008 ERROR Failed to complete action: close. <class 'curator.exceptions.FailedExecution'>: Exception encountered. Rerun with loglevel DEBUG and/or check Elasticsearch logs for mor
e information. Exception: AuthorizationException(403, 'cluster_block_exception', 'blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];')
Как гарантированно можно удалять старые индексы?
Убрать вот прям сейчас эластик не могу на сторонний сервер.
привет
а есть представление как средствами только kolla вынести ELK на отдельные сервера? в HA с VIP'ом и т.д
icinga
хочется отдельный вип под елк, отличный от основного?
Monsieur
конечно
особого смысла через control-ноды ходить до ELK'и не вижу смысла
Monsieur
пардон за тавтологию
icinga
хз как красиво, но самое тупое - добавить в инвенторку ноды эластика в соответствующую группу, захардкодить elasticsearch_address, чтобы все остальные знали где он и рукой поднимать отдельный кипэлайв под эластиковый вип(
Andrey
Monsieur
Monsieur
в общем, разработчики kolla говорят, что вынести на отдельную ноду можно, но VIP отдельный пока нет (что, в принципе, очевидно, если playbook'и глянуть)
Monsieur
возможно, попробуем занести в upstream
они, по-крайне мере, сами заинтересованы в полной сепарации ELK'и
Monsieur
не, там без костылей жирных не получится
проще сразу хорошо делать
Vyacheslav
Так в колла вип на Нетворк ноде ставится haproxy после проксирует в ваш сервис
CruelPunk
Добрый вечер.
WARNING nova.compute.manager While synchronizing instance power states, found 10 instances in the database and 5 instances on the hypervisor
в чем может быть проблема и куда копать?
Andrey
Есть вм с дисками новы, как запретить к этой вм атачить диски из циндера?
NS 🇷🇺
Vyacheslav
Ещё HR приходят 🙂
Vyacheslav
CruelPunk
icinga
Alexandra
Ещё HR приходят 🙂
Инженер по ремонту пк и сети) Александра очень приятно) так же и hr в билайне)
NS 🇷🇺
Alexandra
Илья | 😶☮️🐸
Alexandra
Илья | 😶☮️🐸
CruelPunk
NS 🇷🇺
CruelPunk
Ну если в количественном то соответственно в virsh их меньше раза в 2
AcidMan
AcidMan
выглядит как мерседес )))
AcidMan
CruelPunk
Vyacheslav
т.е. у вас по факту есть часть машин, которые не запущены на ноде и больше их нигде нет?
CruelPunk
Vyacheslav
так сделайте им openstack reboot --hard
CruelPunk
Vyacheslav
тогда там надо разбираться чего не хватает, обычно это презент диска
CruelPunk
Благодарю. Глянем
Vyacheslav
ну и скорее всего раз они попадали в ERROR теперь ошибки уже нет
Andrey
J
J