Vyacheslav
На практике внешняя api не успевает присоединить все диски, до истечения тайм-аутов
Vyacheslav
И сидишь в базе возвращаешь часть дисков на старый гипер,
Artemy
Зависит от бакэндов кмк. Если у вас их достаточно и они быстрые относительно вызовов аттача то всё не так плохо
NS 🇷🇺
virtio-scsi и 255 дисков. Очевидно же
Я ж прям выше уже предлогал, но чет Славик не воспринял)
Vyacheslav
Я ж прям выше уже предлогал, но чет Славик не воспринял)
Да сам кейс не совсем адекватен столько дисков в вм
NS 🇷🇺
Да сам кейс не совсем адекватен столько дисков в вм
Да норм, поднять вм на 100500 дисков, а потом с нее нфс раздавать на другие. Такое я даже встречал на нашем с тобой совместном бывшем предприятии
Илья | 😶☮️🐸
Vyacheslav
С тем учетом что у нас и так снизу ceph
Vyacheslav
Просто прекрасное решение
Vyacheslav
ceph^2
Да кейс куда потратить полезный объём дисков и ничего не поняв отлично реализуется
Илья | 😶☮️🐸
на какой сетке раскатили цеф ? 40г ?
Vyacheslav
на какой сетке раскатили цеф ? 40г ?
Там и 10g хватает - диски sata
Илья | 😶☮️🐸
Artemy
Работает. В синдере есть InstanceLocalityFilter
Artemy
Там правда не всё гладко с миграцией но этот вопрос тоже решается без большой крови
Matvey
А локальные вольюмы он умеет без iscsi подключать?
Artemy
Увы. Только через loopback
John Roe
Фея Wings: user has been CAS banned
Я и твой кот
Azure продолжает неплохо так отхватывать жирных корпоративных клиентов. Теперь вот AT&T перевозит к ним в облако свою 5G сеть, включая network cloud. А оно у них на чём? А оно у них на OpenStack и кубернетисах! https://news.microsoft.com/2021/06/30/att-to-run-its-mobility-network-on-microsofts-azure-for-operators-cloud-delivering-cost-efficient-5g-services-at-scale/
Я и твой кот
Бабло побеждает зло
Ага. Но надо посмотреть, во что в итоге выльется.
Я и твой кот
Какой там гипервизор в Ажуре?
Vyacheslav
Hyper v?
Я и твой кот
Наверное. Ждём сертификации VNF’в/CNF’ов под Hyper-V (Azure for Operators cloud).
Vyacheslav
Да телко Клауд должен умереть
Я и твой кот
Пока что года три будут продолжать развивать OpenStack как и прежде, судя по прессрелизу.
Vyacheslav
Тащить трафик в цепочки в дата центр - сильно увеличивает задержку
Я и твой кот
Тащить трафик в цепочки в дата центр - сильно увеличивает задержку
Телко клауд (современный) не тащит трафик в центр. Он уже размазан на edge.
Я и твой кот
Не про РФ, да. Не знаком с российскими операторами.
Я и твой кот
🥲
Илья | 😶☮️🐸
Илья | 😶☮️🐸
лол
Я и твой кот
А я бы хотел быть не знаком
У МТС OpenStack и ONAP был, да?
Vyacheslav
У МТС OpenStack и ONAP был, да?
Я знаю только Nokia nuage Alcatel border
Vyacheslav
У МТС OpenStack и ONAP был, да?
Не знал что в мтс был свой
Vyacheslav
всё оч плохо ?
Ну дизайн странный для России, весь трафик гнать через Москву… для Германии или Финляндии было бы норм
Vyacheslav
Но я представляю как с Камчатки до Владивостока через спутник будет ходить трафик: Камчатка спутник Сибирь Москва дальний восток
Илья | 😶☮️🐸
а, стоп, даже так
Я и твой кот
Vyacheslav
а, стоп, даже так
Да и даже снятие со спутника не в Москве обычно
Vyacheslav
Короче примерно 1 сек задержки для телко трафика
Vyacheslav
А для p2p при тех же условиях около 600
Я и твой кот
Ну вот ONAP в MTS в РФ. Там же где-то OpenStack был рядом.
Vyacheslav
Без захода в мск и прохождения всяких сервис чейнов
Vyacheslav
https://docs.openstack.org/nova/latest/user/rescue.html
Vyacheslav
Cannot rescue a volume-backed instance (HTTP 400)
Vyacheslav
кто-то использует эту опцию?
Vyacheslav
As of 21.0.0 (Ussuri) an additional stable device rescue mode is available. This mode now supports the rescue of volume-backed instances.
Nikolas
ребята, хотим сертифицироватся по OpenStack, но для этого нужна подготовка (желательно онлайн), есть ли тут сертифицырованные? по каким курсам вели подготовку?
Vyacheslav
а кто-то системно подходил к steal time? со стороны гипера есть счётчики, но имеет ли его смысл смотреть на гипере или только со стороны VM?
J
а кто-то системно подходил к steal time? со стороны гипера есть счётчики, но имеет ли его смысл смотреть на гипере или только со стороны VM?
Смотря чо ты хочешь узнать. steal time внутри вм важен для пользователей. А на гипервизоре даже не знаю имеет ли смысл его смотреть.
Vyacheslav
Смотря чо ты хочешь узнать. steal time внутри вм важен для пользователей. А на гипервизоре даже не знаю имеет ли смысл его смотреть.
вопрос как раз в том, что бы видеть steal time в VM до того, как они прийдут и начнут жаловаться из-за переподписки в 1000
J
вопрос как раз в том, что бы видеть steal time в VM до того, как они прийдут и начнут жаловаться из-за переподписки в 1000
Я про это думал с год назад и пришел к тому что чем городить мониторинг проще с помощью весовых коэффициентов и коэффициентов оверпровиженинга ограничить максимальный steal time.
Vyacheslav
а как ты это сможешь сделать, если сегодня у тебя 10 VM только загрузилось, а завтра они все 100% cpu хотят потребить
Andrey
Тионикс
Славик, ну ты посоветовал
J
а как ты это сможешь сделать, если сегодня у тебя 10 VM только загрузилось, а завтра они все 100% cpu хотят потребить
Допустим, у нас 48 ядер на хосте. Всем ВМ выделяем не больше 60 ядер, к примеру. И тогда уже не важно сколько там чего какая вм жрет потому что без запинивания ядер планировщик хоста будет размазывать нагрузку по всем ядрам и даже если все витуалки будут нагружать свои vCPU на 100% планировщик хоста вряд ли допустит перекос и вм от процессорного времени друг друга примерно равные куски будут отъедать.
J
при таком подходе, конечно, может получиться что у тебя какие-то хосты очень слабо нагружены, если там все вм простаивают. Но зато и у клиентов есть гарантия относительно доступного процессорного времени.
J
Ну а если с QoS в нове поиграть, то можно и что-то сильно лучше придумать.
J
Но пока руки не дошли.
Vyacheslav
грубо говоря пока у сервера все ядра не в полке у клиента не будет steal time?
J
Но это грубо. На деле, конечно, возможно что ядро хоста будет субоптимально раскидывать потоки виртуалок по ядрам. Но на практике такого никогда не замечал.
Илья | 😶☮️🐸
если прям по некоторым ядрам проходит нагрузка в моменте, как оно фиксится- хз
Pavel
более того, если переподписка будет космическая, то на хосте ты не увидишь полную загрузку ядер - там будет тупо скедуллер щелкать процессы, на хостовом цпу у тебя будет чет порядка 80%, а на виртушках будет ад и израель
Pavel
Мне опыт подсказывате что при любой загрузке st будет. потому что доступ к памяти на другом проце не может быть меньше чем за такт
Pavel
а еще нума и контроллеры на разных сокетах, кеш мисс и прочие замечательные прелести свободного полета процессов по сокетам
Я и твой кот
Такое ощущение, что тут нищехостеры с 1000-кратной переподпиской и кластерами в общаге из ноутбуков обсуждение ведут, а не уважаемые доны с кластерами на экзабайты оперативки и сотни тысяч сокетов.