✠ FLASh ✠
не, наоборот, у меня голый баре метал будет 180 шт, вообще без всего, я на паре митапов слыхал, что ироник может к ipmi подрубаться, и настраивать операционку и тд.
То есть задача не опенстэк по сути даже размернуть, а именно автоматизировать развёртывание. Типа серваки есть, я на ноуте роник запустил он сам в сетке всё нашёл, в зависимости от конфига сервера применил настройки, а я уже далее ансиблом поставил софт и тд
Ироник может по ипми работать с бареметалом - да, но с сетками проблема будет и остальное надо будет настраивать ансиблом руками крюками
J
не, наоборот, у меня голый баре метал будет 180 шт, вообще без всего, я на паре митапов слыхал, что ироник может к ipmi подрубаться, и настраивать операционку и тд.
То есть задача не опенстэк по сути даже размернуть, а именно автоматизировать развёртывание. Типа серваки есть, я на ноуте роник запустил он сам в сетке всё нашёл, в зависимости от конфига сервера применил настройки, а я уже далее ансиблом поставил софт и тд
Ironic тебе все равно придется на отдельном сервере раскатывать и не на одном, в ощем то, скорее всего. Но мыслишь в нормальном направлении.
Sergey
а у нас опенстек
кстати, а изменение размера диска вм тоже с шатдауном как в яндексе?
Anonymous
@Asgoret будет жить. Поприветствуем!
✠ FLASh ✠
Старый
будет 4 спайн свича и 24 leaf свича
Михаил
Asgoret
Vladimir
в этот раз нет
J
Vladimir
но я внимательно смотрел трансляцию
J
А в остальном порядок.
✠ FLASh ✠
Я б забил на айроник и взял что-то что просто раскатает мне по ипми быстренько образы. Остальное конфигурить через ансибл.
Михаил
точнее мы выяснили, что сетевая часть maas нахер не неужна
Михаил
кроме самой каноникал
Старый
Старый
на кумулусе будет dhcp+dns
J
Или evpn и BGP терминируются не на серверах?
Старый
Старый
Михаил
Михаил
ну вот в октябре и проходи
Михаил
или в @cloud_flood иди
Михаил
я тебя там разбанил
Старый
я не троллю, если ты не заметил
J
Играться можно с виртуалками. У Ironic есть драйверы и интерфейсы для взаимодействия с виртуалбоксом и libvirt вместо реальных IPMI, iLo и прочей чепухи.
J
@erzentd, ну и погляди статьи StackHPC по использованию опенстековских сервисов для управления голым железом. Там у них много сложного наверчено, но статьи дают представление куда смотреть и что вообще можно делать на голом железе с опенстеком.
Вот, к примеру.
https://www.stackhpc.com/ironic-idrac-ztp.html
J
Или забей и используй xCAT, в натуре) Как деды делали!
Старый
Anonymous
4/7 (20.02) будет жить. Поприветствуем!
✠ FLASh ✠
👍
✠ FLASh ✠
блин необычно как-то
Alex
Всем ку, народ подскажите плз, как/где посмотреть на каких конкретно лунах расположены вольюмы из тенанта ?
J
✠ FLASh ✠
конечно от бекенда зависит
✠ FLASh ✠
но можно посмотреть куда все складываться будет в cinder.conf и в openstack volume show <volume-id>
Alex
ок, благодарочка
Anonymous
Данил будет жить. Поприветствуем!
Vladimir Kuznetsov
Anonymous
@bushmelev_aa будет жить. Поприветствуем!
Anton
Коллеги. всем привет !
Anton
помогите разобраться что мы делаем не так : )
Anton
Anton
Anton
при утилизации гиперов ( данные с заббикса и ovirt консоли ) максимальная утилизация была ~70%
Anton
но при этом на гостевых VM cpu steal time доходил до 40%
J
steal time высокий говорит о том что процессор дофига времени на переключение контекста тратит. Проще говоря, слишком много виртуалок.
Anton
2.27 – текущий коэфициент переподписки на kvm ( 2034 vcpu/ 896 cpu )
Anton
=( до этого жили на варе с переподпиской > 3.5 и такой штуки не наблюдал
Anton
но суть понял, найти тачки с высоким переключением контекста и разносить их
J
J
И конкретные виртуалки)
Sergey
hyper-threading на хостах используете?
Anton
Anton
не по серверно, а со всего кластера
Sergey
да
Можете отключить на лету - либо через sysctl опцию, если ядро свежее, либо по простому циклом:
echo 0 > /sys/devices/system/cpu/cpu${i}/online;
Или сделать по другому - перепривязать cpu affinity для qemu процессов только на реальные ядра (только numad отключите, если используете)
taskset -acp 0-6 ${qemu_pid}
После этого - посмотрите на результат, если понравится, то включайте на постоянку 😊
Anton
😉это я сюда удачно зашел
Anton
спасибо ! добавлю в ближайший план тестирования
J
не по серверно, а со всего кластера
steal time и другие метрики процессора со всего кластера это ж как средняя темпеатура по больнице)
Нужно тебе найти на каких гипервизрах и каких конкретно виртуалках дела обстоят безобразнее всего.
J
Кстати, idle и iowait на хостовых системах погляди заодно, так можно будет понять дело в том что процессора не хватает или в том что все в io упирается.
Dmitry
Dmitry
Блин, уже про него спросили
Mikhail
@ddpechkin , @nwton_ru , привет. а чем гипертрединг то может так сильно влиять на гипервизор?
Sergey
пример "на пальцах":
хост с 2 реальными ядрами и ещё 2 гипертрейдинговых, всего 4 ядра, выполняется 2 виртуалки (по 1 ядру в полку, можете md5 для /dev/zero например посчитать в один поток)
1) если процессы qemu выполняются каждый на своём физическом ядре, то всё хорошо, на хосте top покажет 50% загруженность по cpu, в виртуалках тоже всё хорошо
2) если процессы qemu попытаются выполниться на sibling ядрах - принадлежат одному физическому, реальный и виртуальный гипертрейдинговый, то на хосте всё останется по прежнему 50% загрузка, а внутри виртуалок появится steal time
сделайте тест - запустите пару виртуалок, посмотрите вывод lscpu на хосте про вашу систему и реальные ядра и попробуйте назначить через taskset привязку cpu affinity на разные физические ядра, а затем на сиблинговые, поймёте сразу.
Mikhail
пример "на пальцах":
хост с 2 реальными ядрами и ещё 2 гипертрейдинговых, всего 4 ядра, выполняется 2 виртуалки (по 1 ядру в полку, можете md5 для /dev/zero например посчитать в один поток)
1) если процессы qemu выполняются каждый на своём физическом ядре, то всё хорошо, на хосте top покажет 50% загруженность по cpu, в виртуалках тоже всё хорошо
2) если процессы qemu попытаются выполниться на sibling ядрах - принадлежат одному физическому, реальный и виртуальный гипертрейдинговый, то на хосте всё останется по прежнему 50% загрузка, а внутри виртуалок появится steal time
сделайте тест - запустите пару виртуалок, посмотрите вывод lscpu на хосте про вашу систему и реальные ядра и попробуйте назначить через taskset привязку cpu affinity на разные физические ядра, а затем на сиблинговые, поймёте сразу.
понятно. для закрепления - планировщик задач в linux-е разве не пытается исключать sibling-и? я не готов спорить, но недавно наблюдал картину на двухсокетной системе по 20 ядер что логические ядра от 0 до 19 и от 40 до 59 были заняты на 80%, а остальные на 20%.
Mikhail