Илья | 😶☮️🐸
можете законтрибьютить даже, двойная полезность
Stanley
Ну да, решить один из "пунктов боли": Sharing is regional only; if image cloning to other regions is implemented so that a UUID is preserved across regions, this could easily be handled in the UI/API script.
I
ребят, как можно примонитровать образ, через cd-rom в ВМ? Можно ли это вообще сделать через веб-интерфейс?
Pavel
через морду тоже можно, действия те же.
I
через морду тоже можно, действия те же.
т.е. получается можно просто чрезе аттач вольюма? в инструкции в основном решения как запуститься с этого образа, а мне нужно просто его примонтировать к уже готовому инстансу
Илья | 😶☮️🐸
Все так или иначе к волюмам сводится
I
понял, спасибо
I
а как можно из образов создать вольюмы?
I
а как можно из образов создать вольюмы?
соре, думал это сложнее, чем на самом деле) пока что только пустые создавал
I
и ещё вопрос, существует какой-то простой способ переноса вольюма в другой проект? пока что нахожу только инструкции для cli, возможно то же самое можно через веб интерфейс выполнить
Илья | 😶☮️🐸
https://docs.openstack.org/cinder/latest/cli/cli-manage-volumes.html#transfer-a-volume
Так это меняется пользователь или проект ?
I
Неа
понял(
J
Через Horizon?
I
Получилось это сделать в итоге, выгружая RC файлы, и воспользоваться cli клиентом)
Al
Коллеги. Вопрос по бакэндам cinder-а. Cinder через Haproxy размазан на два хоста. Имеется дефолтный бэкэнд к ceph. Все работает ОК. Добавляю новый бэкэнд (другой pool в ceph, либо вообще на другой кластер ceph). [ceph_backend_wdd] backend_host = ceph volume_backend_name = ceph_backend_wdd volume_driver = cinder.volume.drivers.rbd.RBDDriver rbd_pool = volumes-wdd rbd_user = cinder rbd_ceph_conf = /etc/ceph/dc01.ceph.conf rbd_flatten_volume_from_snapshot = false rbd_secret_uuid = 30c751fb-7b7d-4b29-b780-3d1d2142d860 На втором хосте делаю тоже самое. По # cinder service-list | Binary | Host | Zone | Status | State | Updated_at | Disabled Reason | +------------------+------------------------------+------+---------+-------+----------------------------+-----------------+ | cinder-volume | ceph@ceph_backend_wdd | nova | enabled | up | 2022-04-12T10:35:04.000000 | имя хоста в списке составляется из backend_host@volume_backend_name Вопрос. Должно ли оно быть одинаковое на обоих хостах в конфигах cinder HA. Или на каждом хосте cinder-а должны быть свои backend-ы с уникальным именем?
J
Коллеги. Вопрос по бакэндам cinder-а. Cinder через Haproxy размазан на два хоста. Имеется дефолтный бэкэнд к ceph. Все работает ОК. Добавляю новый бэкэнд (другой pool в ceph, либо вообще на другой кластер ceph). [ceph_backend_wdd] backend_host = ceph volume_backend_name = ceph_backend_wdd volume_driver = cinder.volume.drivers.rbd.RBDDriver rbd_pool = volumes-wdd rbd_user = cinder rbd_ceph_conf = /etc/ceph/dc01.ceph.conf rbd_flatten_volume_from_snapshot = false rbd_secret_uuid = 30c751fb-7b7d-4b29-b780-3d1d2142d860 На втором хосте делаю тоже самое. По # cinder service-list | Binary | Host | Zone | Status | State | Updated_at | Disabled Reason | +------------------+------------------------------+------+---------+-------+----------------------------+-----------------+ | cinder-volume | ceph@ceph_backend_wdd | nova | enabled | up | 2022-04-12T10:35:04.000000 | имя хоста в списке составляется из backend_host@volume_backend_name Вопрос. Должно ли оно быть одинаковое на обоих хостах в конфигах cinder HA. Или на каждом хосте cinder-а должны быть свои backend-ы с уникальным именем?
Да, можно. И это, как раз, правильный и предпочтительный вариант. cinder-volume уже 2-3 релиза как умеет active-active кластер. Для этого прописывается опция "cluster" в cider.conf.
Pavel
У кого либо работает авторизация по ключу в cirros (4 ил 5 версии)?
J
Только аккуратно. Если имя кластера просто так вписать, то уже созданными томами рулить будет нельзя. Нужно будет менять хост у томов чтобы они снова стали управляемыми.
J
Коллеги. Вопрос по бакэндам cinder-а. Cinder через Haproxy размазан на два хоста. Имеется дефолтный бэкэнд к ceph. Все работает ОК. Добавляю новый бэкэнд (другой pool в ceph, либо вообще на другой кластер ceph). [ceph_backend_wdd] backend_host = ceph volume_backend_name = ceph_backend_wdd volume_driver = cinder.volume.drivers.rbd.RBDDriver rbd_pool = volumes-wdd rbd_user = cinder rbd_ceph_conf = /etc/ceph/dc01.ceph.conf rbd_flatten_volume_from_snapshot = false rbd_secret_uuid = 30c751fb-7b7d-4b29-b780-3d1d2142d860 На втором хосте делаю тоже самое. По # cinder service-list | Binary | Host | Zone | Status | State | Updated_at | Disabled Reason | +------------------+------------------------------+------+---------+-------+----------------------------+-----------------+ | cinder-volume | ceph@ceph_backend_wdd | nova | enabled | up | 2022-04-12T10:35:04.000000 | имя хоста в списке составляется из backend_host@volume_backend_name Вопрос. Должно ли оно быть одинаковое на обоих хостах в конфигах cinder HA. Или на каждом хосте cinder-а должны быть свои backend-ы с уникальным именем?
Причем никакой внешний балансировщик для кластера cider-volume уже не нужен.
J
Т.е. правильный вариант - когда на обоих хостах имя одинаковое?
Да. Без внешнего балансировщика, вместо имени хоста у cinder-volume имя кластера. (Кластер сервисов cinder-volume, отношения к ceph это имя кластера не имеет) Имя кластера прописывается опцией cluster в секции default в cinder.conf.
NS 🇷🇺
там и без cluster на старыз версиях можно жить в таком же виде
J
да там один запрос в бд сделать =)
Ну да. Или через cinder-manage, что по сути то ж самое.
NS 🇷🇺
а откуда последнее время столько вопросов то опять?
NS 🇷🇺
бывшие VMWare пришли?
J
а откуда последнее время столько вопросов то опять?
Ну так да. Многие вынуждены отказаться от волшебных энтерпрайзных решений от вмвари, майкрософта и всех прочих.
Yuf
Maksimus Ulibikus
Всем привет. OS Xena Такая байда выскакивает: sudo su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova 2022-04-12 14:45:38.587 123719 WARNING oslo_policy.policy [req-9fb2f78f-860c-4238-ac72-64a3fb6ccc83 - - - - -] JSON formatted policy_file support is deprecated since Victoria release. You need to use YAML format which will be default in future. You can use ``oslopolicy-convert-json-to-yaml`` tool to convert existing JSON-formatted policy file to YAML-formatted in backward compatible way: https://docs.openstack.org/oslo.policy/latest/cli/oslopolicy-convert-json-to-yaml.html. 2022-04-12 14:45:38.587 123719 WARNING oslo_policy.policy [req-9fb2f78f-860c-4238-ac72-64a3fb6ccc83 - - - - -] JSON formatted policy_file support is deprecated since Victoria release. You need to use YAML format which will be default in future. You can use ``oslopolicy-convert-json-to-yaml`` tool to convert existing JSON-formatted policy file to YAML-formatted in backward compatible way: https://docs.openstack.org/oslo.policy/latest/cli/oslopolicy-convert-json-to-yaml.html. Критично или можно игнорировать?
Maksimus Ulibikus
NS 🇷🇺
что в нем может быть критичного
I
Почему после такой ошибки с диском ничего нельзя сделать, кроме как обновить метаданные и к чему выполнение этого обновления может привести?
I
Почему после такой ошибки с диском ничего нельзя сделать, кроме как обновить метаданные и к чему выполнение этого обновления может привести?
В общем-то это ни к чему не приводит, а как теперь удалить диск? Из возможных действий, только обновление метадаты
I
Если что, квоты есть с запасом
Aleksandr
cinder rese-state да
J
Если что, квоты есть с запасом
Сначала разберись почему не получилось расширить.
J
Ок, попробую, насколько смогу
Для начала вот так: Включаешь в конфиге cinder: debug = True и смотришь логи cinder-api и cinder-volume.
I
Для начала вот так: Включаешь в конфиге cinder: debug = True и смотришь логи cinder-api и cinder-volume.
удалось вне cinder-а починить, при помощи: openstack volume set --state available <id_disk>
I
Это то же самое)
а, это и есть cinder?) у меня просто нет доступа к нодам, это операции через клиент и rc файл )
J
а, это и есть cinder?) у меня просто нет доступа к нодам, это операции через клиент и rc файл )
Для каждого сервиса есть отдельные cli клиенты и есть openstackclient, который как единый интерфейс для них выступает. По сути отдельные консольные клиенты в него как плагины подключаются.
J
Но не всё через него можно сделать и не всегда удобно. Иногда прихдится через отдельные клиенты ковыряться.
Я и твой кот
VK на OpenStack: https://habr.com/ru/company/vk/blog/656797/
Artem
VK на OpenStack: https://habr.com/ru/company/vk/blog/656797/
Уберите, это не техническая статья, нафиг она тут
Рамиль
Токсично
Токсично
Dmitrii
Токсично
Токсично
Alexey
Токсично
Токсично
icinga
Denis
Нынче модно контр-экологично
Vyacheslav
Нынче модно контр-экологично
Ещё можно добавить что статью писал цисгендерный белый мужчина - читать ее нельзя
Dmitrii
Ещё можно добавить что статью писал цисгендерный белый мужчина - читать ее нельзя
Так еще и русский. Так еще и не гей. Так еще и антилиберальными взглядами. А еще он не смотрит аниме и не знает значение слова кринж
Den
Ещё и бумер
Со своим нейтроном 🙈
Maksimus Ulibikus
Всем привет. Не могу победить 403 ошибку. Не пойму, почему не пускает. Конфиг /etc/httpd/conf.d/openstack-dashboard.conf WSGIDaemonProcess dashboard WSGIProcessGroup dashboard WSGISocketPrefix run/wsgi WSGIApplicationGroup %{GLOBAL} WSGIScriptAlias /dashboard /usr/share/openstack-dashboard/openstack_dashboard/wsgi/django.wsgi Alias /dashboard/static /usr/share/openstack-dashboard/static <Directory /usr/share/openstack-dashboard/openstack_dashboard/wsgi> Options All AllowOverride All Require all granted <IfVersion < 2.4> Order allow,deny Allow from all </IfVersion> <IfVersion >= 2.4> Require all granted </IfVersion> </Directory> <Directory /usr/share/openstack-dashboard/static> Options All AllowOverride All Require all granted <IfVersion < 2.4> Order allow,deny Allow from all </IfVersion> <IfVersion >= 2.4> Require all granted </IfVersion> </Directory> Получаю такую ошибку: [Wed Apr 13 16:50:59.231978 2022] [authz_core:error] [pid 18658:tid 140299099682560] [client 10.10.84.1:11725] AH01630: client denied by server configuration: /usr/share/openstack-dashboard/openstack_dashboard/wsgi
Dim
всем привет. у меня такой вопрос, почему иногда запрос к metadata подвисает на 15 сек , и вываливается с connection reset by peer? а на второй раз все уже нормально проходит. проследил запросы, но плохих логов нигде нет. Такое впечатление что запрос где-то затыкается, но в neutron-metadata-agent.service тишина. даже в дебаге. в логах на nova-api этих запросов просто нет.
Dim
Увы, но Везде одна метадата прописана. Один и тот же сервис
Aleksandr
метадата за балансером спрятана обычно
Илья | 😶☮️🐸
Aleksandr
openstack network agent list
Dim
агенты живы, балансировщика нет. везде в агентах прописан один и тот же nova_metadata_host
Ilyas
Пастырь
Sorry) public pereputal