Andrey
Пользователями. Сорян.😂
Ruslan
Пользователями. Сорян.😂
👍😁 Будешь первым?
Andrey
Заценил.👍
Aleksey
А подскажие, может чем мониторить все компаненты OpenStack лучше?
Пиши свой экспортёр, существующие не очень, а все кто сам написал не выкладывают так как не могут или им просто стыдно
Anonymous
@sambaryan будет жить. Поприветствуем!
Я и твой кот
Там не всё, правда.
Aleksey
Sergei
вово 🙂
ну все что не хватает можно добавить, дописав несколько строчек
Arman
нет, обычный один сервер Cinder c двумя дисками ssd и hdd enabled_backends = lvm,cinder-hdd [lvm] volume_group = cinder-volumes volume_backend_name = NVME [cinder-hdd] volume_group = cinder-hdd volume_backend_name = HDD OpenStack flavor list --long https://i.imgur.com/tfWillm.png
[libvirt] virt_type = kvm images_type = lvm images_volume_group = cinder-volumes В cinderдобавил несолько volume group, меняю все появляется, но hypervisor общее кол-во TB не увеливается, пытаюсь добавить конфиг в nova. Как тут указать правильно multiple volumes group? Через запятую просто попробовал не работает так
Arman
enabled_backends = lvm-1,lvm-2,lvm-3 [lvm-1] volume_group = cinder-volumes volume_driver = cinder.volume.drivers.lvm.LVMVolumeDriver volume_backend_name = lvm-1 iscsi_helper = tgtadm iscsi_protocol = iscsi [lvm-2] volume_group = pcie-00-volumes volume_driver = cinder.volume.drivers.lvm.LVMVolumeDriver volume_backend_name = lvm-2 iscsi_helper = tgtadm iscsi_protocol = iscsi [lvm-3] volume_group = pcie-01-volumes volume_driver = cinder.volume.drivers.lvm.LVMVolumeDriver volume_backend_name = lvm-3 iscsi_helper = tgtadm iscsi_protocol = iscsi
Arman
Local Storage (total) не дает создавать новые instance так как считает, что нет места, учитывает только емкость cinder-volumes
NS 🇷🇺
Local Storage (total) не дает создавать новые instance так как считает, что нет места, учитывает только емкость cinder-volumes
и локал сторадж - эфимерная хранилка? если так, то по дефолту их там 3 штуки
Ruslan
ага
тогда судя по доке должно работать. А в логах по этой теме что-то есть?
Arman
а то что в nova.conf [libvirt] virt_type = kvm images_type = lvm images_volume_group = cinder-volumes только одна группа cinder-volumes? у меня как раз таки только ее размер учитывается в Local Storage Total
Aleksey
Таки вы же понимаете когда создаёте ВМ без создания нового волюма, то диск создаётся эфемерный, т.е. то что настроено в nova.conf на гипере. Если же будете создавать ВМ с созданием нового волюма, то рут ляжет в циндер. В Local Storage Total учитываются именно эфемерные диски, т.е. именно то что настроено в nova.conf
Danila
ошибка в дашборде или где выскакивает? что в логах?
Ошибка появляется в cli, пытаюсь ловить что-то в логах nova и trove но там как-то без подозрений. debug включен.
Jain
Кстати по Trove. Есть ли возможность скачать готовые билды images?
Jain
Я с OpenStack только разбиратся начал. Увидел Trove мне понравилось. Но до своих имаджей еще не дошел. Пока не слишком разбираюсь в этом. А CI images эти помидорки выпилили :)
Anonymous
@felrivero будет жить. Поприветствуем!
Anonymous
@velkerr будет жить. Поприветствуем!
Anonymous
@acarisn будет жить. Поприветствуем!
Jain
Добрый день, как можно отловить ошибку почему cinder не создаёт правильный volume? Есть 4 backend (lvm, nvme, netapp, qnap). У всех есть конфиги и добавленны в enabled_backends. Также созданы 4 Volume Types с properties (volume_backend_name='lvm', volume_backend_name='nvme',volume_backend_name='netapp', volume_backend_name='qnap') По команде volume service list выдают что все они UP. В 3 (lvm,nvme,netapp) создаются volume's. Но не в qnap, тут в scheduler.log выбрасывается ошибка No valid backend was found. No weighed backends available И больше логов не вижу. Как понять куда копать?
Jain
в cinder.conf '''[DEFAULT] debug = true'''
Jain
нет, оказываеться небыл включен. (два значкния в конфиги было). Вот такой лог теперь
Jain
https://pastebin.com/pRMne7YM
Ruslan
в cinder.conf '''[DEFAULT] debug = true'''
скинь конфиг синдера и lvs output
Jain
вот cinder.conf
Jain
https://pastebin.com/sLAqWkFw
Ruslan
вот cinder.conf
а можно все что не закомменчино показать
Jain
почистил от коментов
Jain
https://pastebin.com/sKqkF5pp
Ruslan
https://pastebin.com/sKqkF5pp
ping nas0d25ab — ? и с самим qnap все хорошо, можно с консоли протестить?
Jain
да, с qnap все хорошо. Дошло почему не работало по мере чтения их класса. Первый стандартый пул не должнен занимать всё место на дисках. Сконвертировал пул в "thin-prov" и все заработало https://i.imgur.com/34ZugMc.png
Jain
У них есть еще интересый клас по определеню того как пул должен называться pattern = re.compile(r"^(\d+)+|^Storage Pool (\d+)+")
Jain
Всё оказалось просто как 3 копейки. Но с логами у них пробемы в классе. "Нужно больше логов. Хороших и понятных" :)
Anonymous
@Ospanbekov будет жить. Поприветствуем!
Oleg
Всем привет! Подскажите, пожалуйста, есть ли какая-нибудь глобальная настройка в OpenStack на время работы VM? Или настройка для каждого типа VM?
Aleksandr
woot
Oleg
woot
Имеется в виду автокиллинг машин по таймауту.
Aleksandr
А что имеется ввиду под таймаутом? Таймаут чего?
Oleg
А что имеется ввиду под таймаутом? Таймаут чего?
Инстансов. Есть набор инстансов, в котором по легенде должны запускаться быстроработающие сервисы (до 3 дней работы максимум). При этом есть машины, которые не стопаются месяцами => в них что-то нехорошее запустили.
Oleg
Их надо принудительно киллять
Aleksandr
я понимаю что инстанцов, я спросил что именно будет являться таймаутом? Что проверяется и перестает потом отвечать или с чего связь пропадает?
Aleksandr
по какому признаку таймаут
Pavel
нет такого. нужно костылить
Oleg
Прошла неделя - remove
Aleksandr
а, ок, тогда костылить, да)
Aleksandr
но имхо это еще проще чем какой либо сервис мониторить на ней
Oleg
А как костылить? Хоть примерно. Я новичок в OpenS пока )
Aleksandr
тут никакие особые навыки не нужны, просто на каком нибудь этапе ловите что инстанс либо создался либо стартанул и с него считаете время. Можно даже тотже нагиос настроить на это дело
Pavel
for f in opensack server list; do openstack server show $f; bla bla; done
Aleksandr
for f in opensack server list; do openstack server show $f; bla bla; done
ваще. Он там пишет время АП ?
Aleksandr
или время жизни/создания?
Oleg
ваще. Он там пишет время АП ?
Я думал что-то типа этого: https://docs.openstack.org/python-cinderclient/latest/
Pavel
create date
Pavel
тоесть Вы не знате как посмотреть инфу по инстансу, но знатее как писать на питоне с использованием опенстечного клиента на питоне?
Pavel
ну можно и так, если проще.
Aleksandr
ну да, совсем правильно это один раз взять create date (хотя я бы взял старт тайм), сразу отсчитать N-дней/месяцев, положить задачу на удаление в шедулер. Если нельзя в шедулер то чекать каждые N-минут/часов и удалять во по факту чека
Aleksandr
удобнее это вам в Citrix) или кто там продает крутой Cloudstack
Oleg
удобнее это вам в Citrix) или кто там продает крутой Cloudstack
Мы не можем поменять OpenS на что-то другое...
Oleg
К сожалению, приходится разбираться с тем, что есть
Pavel
где питон и где быстрее. Вы с debug запустите лобой запрос и посмотриет сколько запросов идет. Запросы в опенстек вообще не про скорость
Aleksandr
это почти шутка была, там java, она не дебажится (
Pavel
версия хоть какая?