NS 🇷🇺
вообще есть роль reader, но чет ридер из нее крайне хуевый
Pavel
туда только и ходят, чтобы читать =)
лол потому что документация юзлесс просто ад
NS 🇷🇺
у меня так пока и не получилось перейти на scope решили отложить скорее всего до следующего релиза
George
сам запрос в API возвращает мне 404
если бы по правам резал то не 404 бы возвращал, да и на пустой листинг 200 возвращается тоже, если всего хватило
Andrey
Всем привет. Есть счасливые обладатели OVN? Заменил контролы, но не могу удалить network агента(OVN Controller Gateway agent) от старого контрола. В красной шляпе есть баги и пишут, что удалять через “openstack network agent delete” не получиться. Сам OVN должен удалить из списка агентов по истечении таймаутов. Но что-то вот никак не удаляет и сам агент в состоянии Alive(UP), хотя старый контрол выключен по питанию. Кто сталкивался? Version: Victoria
Vyacheslav
обычно UP/DOWN в openstack смотрится из очереди кролика
Vyacheslav
у тебя нет такого, что контрол новый и старый одинаковое имя имеют?
Vyacheslav
в любое случае в БД у каждого агента есть timestamp lastup и его кто-то двигает почему-то
Vyacheslav
хотя в OVN могли совсем переделать всю логику
NS 🇷🇺
в OVN нету кролика😁
в овн нет, а в нейтроне есть =)
NS 🇷🇺
В OVN есть две свои базюльки.
базули или таблицы в нейтроне?
Andrey
базули или таблицы в нейтроне?
Две базули в OVN Southbound DB. - здесь и храниться инфа о gateway chassis(ovn агент) Northbound DB Конечно кролик есть в нейтроне, он и правит лист агентов в своей базе. Хотел по легкому отскачить, придется самому разбираться.
Aleksandr
Господа, вопрос, пытаюсь сделать Volume из Image (100гб) и получаю Image used for creating volume exceeds available space Бэкенд NFS, опция image_conversion_dir= стоит и смотрит на диру в которой дохера места. на рут диске Cindera свободно 14ГБ
Jain
День добрый, а где на сайте Redhat можно скачать Redhat Openstack Platform Director" ISO? Раньше вродебы был такой
Jain
Нучтож, придется вручную тогда. Я почему-то думал там есть ISO с директором.
Aleksandr
Господа, вопрос, пытаюсь сделать Volume из Image (100гб) и получаю Image used for creating volume exceeds available space Бэкенд NFS, опция image_conversion_dir= стоит и смотрит на диру в которой дохера места. на рут диске Cindera свободно 14ГБ
Я кажется понял. Почему Опенстек про создании Volume выбирает случайного cinder-volume агента и через него создает? Как ему указать конкретного? Того на котором есть место
Aleksandr
то есть я ему говорю создай Volume из Image и он отдает команду на создание volume агенту который расположен на compute ноде на которой в руте нет места
Artemy
Вообще не совсем так
Artemy
Команда "создай волюм" идет в API
Artemy
API её переформатирует, создает "рыбу" волюма и отдает её в шедулер
Aleksandr
Artemy
И уже шедулер выбирает конкретны й бакэнд и говорит ему "создай волюм у себя"
Artemy
Бакэнду регулярно репортят наличие свободного пространства в шедулер и API
Aleksandr
API её переформатирует, создает "рыбу" волюма и отдает её в шедулер
да, это понятно, а потом это подхватывает рандомный /usr/bin/cinder-volume, у меня один запушьен на головном серверез Cinder (если его так можно назвать) и по одному на гипервизорах
Artemy
В шедулере по дефолту есть набор фильтров - в том числе CapacityFilter который не отсечет все бакэнлу на которых недостаточно места
Artemy
да, это понятно, а потом это подхватывает рандомный /usr/bin/cinder-volume, у меня один запушьен на головном серверез Cinder (если его так можно назвать) и по одному на гипервизорах
Все синдер-волюмы имеют уникальное имя и поэтому запрос попадет в точности на тот волюм про который решил шедулер
Artemy
и если у вас волюм прилетает туда где невозможно создавать - то вы значит сами своим руками поломали шедулер
Artemy
Ничего личного 🙂
Artemy
Для начала сделайте cinder get-pools -l и сравните вывод с тем что вы ожидаете
Aleksandr
это что?
Artemy
Ну если бы там с экстра-спеками были траблы то думаю волюмы вообще бы не шедулились ибо NovalidBackendFound или как оно там
Artemy
нет такого флага "-l"
Это опечатка, надо --detail
Aleksandr
aha
Aleksandr
Это опечатка, надо --detail
ок и что, он смотрит на provisioned_capacity_gb + тотал ?
Aleksandr
не + а от*
Artemy
а также на оверпровижнинг, reserved_percentage, free_capacity и много всего ещё
Artemy
Там в выхлопе все параметры приведены, посмотрите CapacityFilter в шедулере синдера.
Aleksandr
аха, ок спасибо, просто не понимаю как TMP и Conversion диры могут быть связаны с дисками под image и volume и т.д.
Aleksandr
видимо у меня была другая логика
Artemy
tmp и conversion это вообще отдельная тема. Временные каталоги никто не учитывает - на то они и временные
Aleksandr
он смотрит на Free capacity, там у меня нФС и отдано 30ТБ, нахрена он это берет в расчет если ему надo IMG конвертнуть в Volume, это же Final Destination только
Aleksandr
в этом и беда
Artemy
Ну воткните диск на XYZ теров и отдайте его под временный каталог
Artemy
Или смонтируйте временный каталог тоже по NFS (например)
Aleksandr
то есть надо сходить на все серверы где запушен cinder-volume и прописать в конфиге cinder.conf image_conversion_dir смотрящий на НФС шару в которой много места?
Artemy
Да
Artemy
А у вас случаем все эти синдеры не на одну NFS-шару смотрят?
Aleksandr
на одну
Artemy
БЛЯДЬ
Aleksandr
wat
Artemy
Вам нужен один бакэнда (либо два бакэнда кластеризованные). Они будут раздавать ссылки на волюмы с указанием NFS и гиперы просто будут монтировать эту шару по мере надобности и брать с неё диски.
Artemy
Вам не нужны бакэнды на каждом гипере
Aleksandr
за монтаж на гипере кто отвечать будет? cinder volume или либвирт?
Artemy
nova и os_brick
Aleksandr
я когда все это поднимал то в доках видел всегда участие cinder-volume
J
я когда все это поднимал то в доках видел всегда участие cinder-volume
Не думаю что ты видел там "Установите cinder-volume на каждый гипервизор") Так делают, но только если в качестве бекэнда локальная файловая система гипервизора.
Aleksandr
локальная ФС + если диск очень большой то NFS volume
J
по умолчанию так и есть
Два бэкэнда, то есть прописано.
Aleksandr
Два бэкэнда, то есть прописано.
да почему же? просто рут диски создаются в /var/lib/nova и всё, если надо то создается доп. Volume
J
да почему же? просто рут диски создаются в /var/lib/nova и всё, если надо то создается доп. Volume
Притормози. То что создается в /var/lib/nova это эфемерные диски. Ими полностью управляю nova и они не могут существовать отдельно от виртуалок.
Aleksandr
Вам не нужны бакэнды на каждом гипере
У меня в nova.conf [libvirt] прописано nfs_mount_point_base только это. Как мне ему обьяснить что он сам должен будет туда чтото смонтировать?
NS 🇷🇺
Artemy
Никак не научусь прежде чем ответить на вопрос задавать три правильных вопроса
Artemy
Не - первый "а ты какого района, визитку покажи?"
Aleksandr
выпилил циндер-волюм, добавил в нова.конф : [cinder] os_region_name = RegionOne
Aleksandr
все робзит
Aleksandr
я с самого начала думал что это мутная схема но документация в этом плане ещё мутнее