Vyacheslav
Спонтанно началось?
я рестартанул, там похоже фул синк 🙁
J
Занятно)
Vyacheslav
1 контрол, 300 машин на каждой ноде....
Vyacheslav
что могло пойти не так?
Vyacheslav
переподписка 30|8|4
Vyacheslav
Печально)
ну оно же работало... пока там не сделали + 120 ВМ и он не начали хотя бы ОС грузить
Vyacheslav
случайно
Aleksandr
случайно
на саботаж похоже больше
Vyacheslav
на саботаж похоже больше
всё норм, тестовый стек
Aleksandr
всё норм, тестовый стек
а KSM врубили хоть раз совем тестовый контур
Vyacheslav
но это не помогло, там KSM ядро скушал, но не смог справится с х2
Aleksandr
не удивительно )))
Maksimus Ulibikus
Ребята привет. На компуте ноде из 72-х используется 70 vCPU, но по факту нагрузка на процы 23%. Других ресурсов полно. OS считает (могу ошибаться), что CPU закончились и не хочет там создавать инстансы. Можно ли кто-то это обойти и принудительно создать инстанс?
Maksimus Ulibikus
Может какой-нибудь —force есть?
Maksimus Ulibikus
А ты почитай config reference по nova.conf, там есть коэффициенты выделения cpu.
Поздно спохватился. Инстансы уже созданы. Только что ратио изменил.
Maksimus Ulibikus
Или их можно ребутнуть и тогда ратио на существующих отработает?
Pavel
Ох походу второй ЯО растет
Pavel
Или их можно ребутнуть и тогда ратио на существующих отработает?
Нову компьют рестартани - и применится новая переподписка
Aleksey
А ты почитай config reference по nova.conf, там есть коэффициенты выделения cpu.
можно и через плейсмент заменить если жесткие лимиты в nova.conf не прописаны
Maksimus Ulibikus
Нову компьют рестартани - и применится новая переподписка
Рестартовал сразу после изменения ратио
Pavel
Ну, тогда если ни где не обозначено иного - будет применяться новое ратио.
Pavel
Никто не встречал что внутри вм ioping 600 us а с хоста тот же диск 200us Сторадж по FC <driver name='qemu' type='raw' cache='none' io='native' discard='unmap'/> <target dev='sda' bus='scsi'/>
Vyacheslav
драйвера попробуй обновить в ОС
Pavel
20 бубунта
Pavel
да и обновлений про virtio я почти не вижу в changelog ни ядра ни qemu
Анастасия
/menu@QuanBot
Анастасия
/menu@QuanBot
🖖🏼Stas
Привет! У меня nova-api отвечает на GET /v2.1/servers/UUID 2.2-2.8 секунды. Дайте совет это нормальная цифра или что то оптимизировать можно, если можно, то в какую сторону посомтреть?
Aleksandr
нормальная это еще надо сказать быстро
🖖🏼Stas
нормальная это еще надо сказать быстро
А какими-нибудь кешами обмазаться есть вариант? Сейчас memcached включен только для auth keystone. Сейчас curl от запроса к запросу показывается вот такие цифры: time_namelookup: 0.001513s time_connect: 0.002244s time_appconnect: 0.000000s time_pretransfer: 0.002331s time_redirect: 0.000000s time_starttransfer: 2.204790s ---------- time_total: 2.204917s time_namelookup: 0.001668s time_connect: 0.002367s time_appconnect: 0.000000s time_pretransfer: 0.002454s time_redirect: 0.000000s time_starttransfer: 4.206501s ---------- time_total: 4.206593s
Aleksandr
нет не вариант, это нормальные цифры. ну и в мемкашед только кейстоун ходить умеет
Pavel
memcache_servers в нова конф присутствует
Pavel
но что он там хранит я не сомтрел
🖖🏼Stas
🖖🏼Stas
И там можно выбрать вот такие бэкенды: # oslo_cache.memcache_pool - <No description provided> # oslo_cache.dict - <No description provided> # oslo_cache.mongo - <No description provided> # oslo_cache.etcd3gw - <No description provided> # dogpile.cache.memcached - <No description provided> # dogpile.cache.pylibmc - <No description provided> # dogpile.cache.bmemcached - <No description provided> # dogpile.cache.dbm - <No description provided> # dogpile.cache.redis - <No description provided> # dogpile.cache.memory - <No description provided> # dogpile.cache.memory_pickle - <No description provided> # dogpile.cache.null - <No description provided> #backend=dogpile.cache.null
🖖🏼Stas
Пробовал включать dogpile.cache.memcached - изменений не ощутил
Pavel
Но даже с кешом time openstack server list --all-projects | wc -l 789 real 0m7.542s user 0m1.154s sys 0m0.194s
Pavel
да
Aleksandr
https://github.com/openstack/nova/blob/50fdbc752a9ca9c31488140ef2997ed59d861a41/doc/source/admin/service-groups.rst
🖖🏼Stas
да
Ну а у меня их ~20 ))
Pavel
root@openstack-openstackclient-0:/# time openstack server list --all-projects | wc -l 30 real 0m2.724s user 0m0.986s sys 0m0.162s
Pavel
Ну а у меня их ~20 ))
openstack server list --debug Там много обращений по этому и долго
🖖🏼Stas
openstack server list --debug Там много обращений по этому и долго
Да, но там еще получение токена и образов. А я курлом дергаю /v2.1/servers/UUID
Pavel
тог да многовато. у меня примерно на 30 вм 1 секунда
🖖🏼Stas
тог да многовато. у меня примерно на 30 вм 1 секунда
Спасибо, буду дебажить, искать узкие места.
Vyacheslav
подскажите где почитать про cells и nova migration | live-migration | resize
Vyacheslav
можно ли между cells это делать
Pavel
Нет, между целами живая миграция не работает.
J
можно ли между cells это делать
Отсюда начни смотреть, наверное. https://docs.openstack.org/nova/latest/admin/configuration/cross-cell-resize.html
J
Но живая миграция точно не прокатит.
Vyacheslav
да этот документ видел, очень интересно, но только про ресайз
J
Только обычная.
Pavel
Вот тут читал. https://docs.openstack.org/nova/latest/user/cellsv2-layout.html
Pavel
Только обычная.
Там похоже - вообще никакая.
Pavel
Cross-cell instance migrations¶ Currently it is not possible to migrate an instance from a host in one cell to a host in another cell. This may be possible in the future, but it is currently unsupported. This impacts cold migration, resizes, live migrations, evacuate, and unshelve operations.
J
Там похоже - вообще никакая.
Почему? Технически ресайз и миграция это ж одно и то же.
Pavel
Почему? Технически ресайз и миграция это ж одно и то же.
Перенос из одной базы в другую записей.
J
Перенос из одной базы в другую записей.
Но, однако ж, ресайз, работает)
Pavel
Но, однако ж, ресайз, работает)
А это изменение одной записи.
Vyacheslav
да технически надо только передать из cell #1 в cell #2 трибуху про VM, порты и прочее. Данные перегнать через qemu не должно быть сложным
Pavel
Там для каждого целла своя база.
Vyacheslav
если там cinder backend - то конечно сложнее, но на локальных дисках выглядит проще
J
Там для каждого целла своя база.
Ну, ради этого и введена концепция Cells)
Pavel
Вот эта особенность на данный момент не даёт просто мигрировать инстансы. Никак. "На данный момент не поддерживается"
Vyacheslav
тогда чем оно отличается от regions?
Vyacheslav
вот не понимаю
J
да технически надо только передать из cell #1 в cell #2 трибуху про VM, порты и прочее. Данные перегнать через qemu не должно быть сложным
Выглядит больше как энтерпрайзная проблема, когда убогость софта или нерадивость его пользователей хотят компенсировать трудом бедняг мастерящих cross-cell миграцию :D
Vyacheslav
в чём тут убогость?
J
у тебя 3 DC и надо мигрировать VM без DT
Если публичное облако, то ни в чем. А если это приватное облако со внутренними сервисами, то проще на ровне приложения переключить всё на свежесозданную в другом DC виртуалку.