Artyom
Всем привет! Кто-нибудь сталкивался с проблемой невозможности удаления volume? Может быть подскажете куда копнуть? В логах cinder api вижу delete запрос, volume некоторое время висит в статусе deleting, а потом не удаляет и статус стновится снова available... Версия queens, ceph.
Pavel
ищи чайлдов этого volume (снапы и подобное)
Artyom
Вроде бы нету ничего у него, ни бэкапов, ни снапшотов
Artyom
при наличии каких-либо чайлдов он бы сразу в ошибку выпадал при попытке удалить, а тут просто тихо не удаляет...
Annie
В каком статусе диск?
Artyom
available
Pavel
а его точно никто не использует? там лока нет?
Pavel
А новые делаются? Выглядит так, что циндер вольюм не получил разнарядку на удаление
Pavel
Осло.мессаджинг, яп туда посмотрел сначала
Artyom
Да, новые делаются и удаляются. И никто его не использует.
Annie
он точно есть в ceph? rbd ls
Anonymous
@velychkovsky будет жить. Поприветствуем!
Aleksey
у меня такое было когда рабит подосрал, ну сходили в базу поставили делитед и подчистили образ в цефе
Aleksey
а как вы это определили? что это именно rabbit
честно говоря это мои предположения основанные на том что процесс удаления начался но так и не произошел, хотя тут мог наверное и cinder-volume подосрать
Timur
t.me/opennebula
Annie
а как вы это определили? что это именно rabbit
Вообще, неплохо было бы включить debug, и лог cinder-volume достаточно наглядно покажет, что пошло не так... Догадка: а хост, на который пришла задача удаления диска, и хост, который создал диск изначально, один и тот же? По умолчанию, если не настраивать общий идентификатор для хостов, идёт привязка к ip адресу либо хостнейму ноды, и эти сведения заносится в базу. Если нода-создатель в дауне, cinder не выполнит удаление...
Aleksey
Если у вас один сервис cinder-volume, то догадка испаряется сама собой.)
Это не у меня, но вопрос нескольких cinder-volume всё ещё открыт. Зачем? Чтобы в случае выхода из строя потерять доступ к менеджменту только части волюмов?
Annie
Пардон, спросонья не сообразила, кто отвечает.) Вообще, по незнанию совершенно спокойно получается, что на трех или сколько там в кластере нод ставится cinder-volume - ради ha, конечно, и каждый сервис биндится на ноду. Но сходу не столь очевидно, что таски на удаление дисков будут прилетать на тот же самый сервис.
Pavel
я тоже не понял зачем два CV к одному бекенду. в БД же будет запись конкретного CV+backend
Aleksey
не улавливаешь смысл HA или не понимаешь зачем надо 2+ CV с разными именами, но подключенные к одному и тому же бекенду?
ну я вижу только один кейс, который я описал выше, что при выходе из строя одного CV мы потеряем менеджмент только к части волюмов, а не ко всем
NS 🇷🇺
отвечу обоим, если у вас 2 CV к одному бекенду и в конфигах CV стоит одинаковая переменная host, при выходе из строя одного CV у вас включается в работу второй
NS 🇷🇺
думаю не стоит говорить, что работает это в эктив пейсиве?
Pavel
а в таком ключе да. тогда работает.
Pavel
но нам оно не нудно :)
Pavel
у нас всегда все только в Active/Active c lb
NS 🇷🇺
но нам оно не нудно :)
а нам нужно, потому что я не хочу вставать ночью из-за вышеднего из строя CV
NS 🇷🇺
Annie говорил =)
NS 🇷🇺
у нас всегда все только в Active/Active c lb
CV вроде как до квинс точно не умел в такой режим
Pavel
а то уж думал что всетаки запили A\A cv без потонциального сплит брейна а я все проспал :)
Vladislav
думаю не стоит говорить, что работает это в эктив пейсиве?
Это и в active-active для некоторых бекендов может работать. Прогресс в апстриме приличный, но документирован плохо: https://blueprints.launchpad.net/cinder/+spec/cinder-volume-active-active-support
Aleksey
CV вроде как до квинс точно не умел в такой режим
и сейчас не умеет, сейчас только для тестов есть вариция
Annie
Etcd поверх решает.
Dmitry
у нас всегда все только в Active/Active c lb
ну вот вам локи надо где то хранить - и будет счастье
Aleksey
@stress_t нам нужно больше etcd 🙂
Pavel
их и так уже 2
NS 🇷🇺
Etcd поверх решает.
ну или Consul =)
Dmitry
😄
Aleksey
я и говорю что надо еещё больше 🙂
Annie
NS 🇷🇺
Отлично поговорили :D
Vladislav
ну вот вам локи надо где то хранить - и будет счастье
Локи cinder-volume может хранить там, где tooz поддерживает. Необязательно etcd, может и redis/memcached, и consul, и др. https://github.com/openstack/tooz/tree/stable/queens/tooz/drivers
NS 🇷🇺
я ничего про consul/etcd и не говорил =)
А это тот случай, когда опаздывают на половину планерки и начинают задвигать гениальные решения =)
Anonymous
@shavaleev_diez будет жить. Поприветствуем!
Kostya
Привет друзья, а у кого есть опыт настройки s3api (https://github.com/openstack/swift/blob/master/swift/common/middleware/s3api/s3api.py) с авторизацией в keystone v3 ? Документации по этому нормальной не нашел(
Anonymous
Iurii B будет жить. Поприветствуем!
Anonymous
@EugenTEV будет жить. Поприветствуем!
NS 🇷🇺
Парни, а ни у кого нет рецепта, как из клишщечки дернуть всех пользователей в проекте?
NS 🇷🇺
говнокодить к вечеру чет нет никакого желания :D
Vadim
https://docs.openstack.org/keystone/pike/admin/cli-manage-projects-users-and-roles.html
Vadim
не хочу показаться капитаном, но вроде как это :)
NS 🇷🇺
Vadim
блин))
NS 🇷🇺
блин))
но ты от части прав и я уже заработался :D
NS 🇷🇺
user list с ключиком —project :D
Vadim
ну да, в целом так)
NS 🇷🇺
ну да, в целом так)
и вроде с отпуска недавно, это наверное старость :D
Vadim
и вроде с отпуска недавно, это наверное старость :D
нет, ты что, этому все возрасты покорны))
Anonymous
Yuriy будет жить. Поприветствуем!
Anonymous
Сергей Будников будет жить. Поприветствуем!
Anonymous
Nikita Burtsev будет жить. Поприветствуем!
Anonymous
Приветствую. Кто встречался со шляпой имиджа CentOS официального клауд, что с git проблемы certificates при попытки пула например с github? Никаких proxy не стоит, прямой выход в интернет через обычные пути. На старом кластере (Newton) с этим же имиджем нет проблем. Установили stein
Anonymous
перековырял интернет, но подходящего не нашел что решит проблему
Alex
Ошибка то какая?
Alex
Peer's Certificate issuer is not recognized ?
Anonymous
@AlexTed git clone https://github.com/openshift/openshift-ansible.git Cloning into 'openshift-ansible'... fatal: unable to access 'https://github.com/openshift/openshift-ansible.git/': Problem with the SSL CA cert (path? access rights?)
Anonymous
уже переустановил, ca-certificates, апгрейдил, довнгрейдил, не помогает
Anonymous
git --version git version 1.8.3.1
Anonymous
cat /etc/redhat-release CentOS Linux release 7.6.1810 (Core)
Anonymous
OpenSSL> version OpenSSL 1.0.2k-fips 26 Jan 2017
Anonymous
все с офф. аптрима