Yuriy
Смотри в логи.
Yuriy
Можно посмотреть конфигурацию инстанса через virsh edit, и как он сетку спустил в ВМ.
Yuriy
~80 процентов проблем тебе помогут решить логи в OpenStack.
Den
На всякий случай спрошу, а в провайдер сети dhcp есть? :)
Yuriy
Главное знать, где смотреть... 😊
Yuriy
Yuriy
Если Cloud image ровный, он через cloud init продавит ip без всякого dhcp.
Maksimus Ulibikus
Вручную не хочет. Есть только один агент от контроллера. При попытке добавит агента от compute ...
Maksimus Ulibikus
Maksimus Ulibikus
Что странно
Maksimus Ulibikus
Но я так понял, потому что neutron-dhcp-agent.service не запущен на compute
Yuriy
Maksimus Ulibikus
Выдал инстансу фейс, но толку
<interface type='bridge'>
<mac address='fa:16:3e:f5:1b:0c'/>
<source bridge='brq1583ae9f-11'/>
<target dev='tapeb57b0a0-3a'/>
<model type='virtio'/>
<mtu size='1500'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/>
</interface>
Yuriy
Что нова пишет в лог при развертывании инстанса?
Yuriy
На ноде.
Maksimus Ulibikus
Чудеса. В доке ни слова, что на compute надо включить DHCP agent
Maksimus Ulibikus
С ним всё встало на свои места
Yuriy
Yuriy
DHCP агенты должны быть на Network нодах.
Yuriy
Yuriy
J
Есть схемы и когда на каждом гипервизоре агент.
Yuriy
Я и не отказываюсь, но я не знаю же четко в какой конфигурации он развернул.
Yuriy
Maksimus Ulibikus
Yuriy
Yuriy
Такой ощущение что у тебя с network агентами разброд.
J
Ilya
А кто приехал на саммит? Давайте посчитаемся 😀
Илья | 😶☮️🐸
Stanley
Расчет окончен, судя по всему. :(
Fedor
Fedor
меня расстроили цены на длительный перелёт неведомыми собаками и куча работы на работе, я даже не заморачивался. хорошо вам потусить, надеюсь, кто-нить в этом году платит за ивенты))
Ilya
Ilya
На первом этапе траблшуттинга нужно посмотреть, что при запуске ВМки, пакеты с запросом DHCP ,будут видны на контроллере, где живёт DHCP агент. Если пакетиков не видно - иди на компьюту где стартует ВМка и проверь что видишь исходящие пакетики на сетевой карте компьюты с DHCP. Если видишь данные пакеты - значит проблема в сетевой связности между компьютой и контроллером. Если исходящих пакетов на компьюте нет - значит что-то с настройками виртуальной сетевой инфры на компуте (тапка ВМки воткнута не в тот бридж и т.д.)
Fedor
а я правильно понимаю, что видосики с саммита онлайн не транслируют?
Fedor
точнее не только лишь всем
Stanley
Dmitry
Всем привет. Подскажите, в опенстек, как компут апи проводит валидацию , с какой ос образ и как юзер дату пробрасывать? Клауд инит там или что-то виндовое
Илья | 😶☮️🐸
Stanley
В июньском соммите из Колла выпилили параметр osapi_volume_workers. Кто либо знает почему? Коммент какой то невнятный (или я его не понял).
Stanley
Stanley
Вроде полезная же штука:
https://docs.openstack.org/cinder/yoga/admin/api-throughput.html
NS 🇷🇺
Stanley
Fedor
пачиму?
Stanley
Ну тупой я наверное... :(
Fedor
коллектив имеет в виду, скорее всего, что теперь апач множит треды, а не питон
Fedor
Stanley
NS 🇷🇺
Stanley
Stanley
Пока пил чай, покопал доку на mod_wsgi. Может работать в виде демона и если я правильно понимаю, то Федор прав и теперь будут пулять через него. Нюансы в том, что во первых, проект еще сильно в стадии развития, а во вторых, появляется еще один слой настройки самого демона mod_wsgi (если там демон, конечно же). Пока выглядит странно, но может и правда быстрее, лучше, сильнее...
Fedor
Пока пил чай, покопал доку на mod_wsgi. Может работать в виде демона и если я правильно понимаю, то Федор прав и теперь будут пулять через него. Нюансы в том, что во первых, проект еще сильно в стадии развития, а во вторых, появляется еще один слой настройки самого демона mod_wsgi (если там демон, конечно же). Пока выглядит странно, но может и правда быстрее, лучше, сильнее...
вы про какой проект? mod_wsgi старый как хрен пойми что
NS 🇷🇺
NS 🇷🇺
Number of workers for OpenStack Volume API service. The default is equal to
# the number of CPUs available. (integer value)
#osapi_volume_workers = <None>
John Roe
@Streamiestcasselty: user has been CAS banned
John Roe
@Topkick1829: user has been CAS banned
John Roe
@KcwpmT: user has been CAS banned
Al
Господа. Требуется помощь.
Имеются тестовые кластеры CEPH pacific и openstack yoga развернутый через kolla.
Сейф разворачивался отдельно и является прототипом другого кластера, который исправно работает с более старой версией опенстека.
Пробелам следующая: при поднятии инстанса из образа он ни вкакую не хочет бутиться с рбд. В логах всех чисто. Авторизация в ceph проходит успешно. Причем вольютмы выключенной ВМ успешно монтируются через rbd map в контейнере libvirt-a. Содержимое доступно. Ключи в libvirt-e тоже верные и пользователь имеет право к пулу с образом.
Для диагностики даже руками создал тестовую ВМ в kvm в контейнере одного из compute.
https://pastebin.com/AMc6SjXJ
В запущенной ВМ проверяю подключенные диски:
# virsh qemu-monitor-command --hmp test info blockstats
: rd_bytes=0 wr_bytes=0 rd_operations=0 wr_operations=0 flush_operations=0 wr_total_time_ns=0 rd_total_time_ns=0 flush_total_time_ns=0 rd_merged=0 wr_merged=0 idle_time_ns=0
# virsh qemu-monitor-command --hmp test info block
libvirt-1-format: json:{"driver": "raw", "file": {"pool": "volumes", "image": "volume-6a8cc678-a5a9-4185-9f62-b109ecf6b708", "server.0.host": "10.163.1.226", "server.1.host": "10.163.1.232", "server.2.host": "10.163.1.233", "driver": "rbd", "server.0.port": "6789", "server.1.port": "6789", "server.2.port": "6789", "user": "cinder"}} (raw)
Attached to: /machine/peripheral/virtio-disk0/virtio-backend
Cache mode: writeback, direct
Не желает бутить вольюм с RBD. В консоли ВМ имеем всегда:
Booting from Hard Disk…
Boot failed: could not read the boot disk
По логам ceph, опенстека, либвирта все чисто. При запуске руками qemu с заранее вытащенным master-key-ем тоже самое.
Подскажите куда копать дальше, куда смотреть. Уже больше нет идей где найти проблему.
Vyacheslav
Glance имеет доступ в ceph? Image хранится в glance/ceph/swift?
Al
Да. Имеет. Образы успешно создаются глансом в сейфе. При создании ВМ успешно делается создается образ ВМ.
Al
Образы в glancе с ceph бэкэндом
NS 🇷🇺