Ruslan
Попробуй добавить в cinder.conf в glance_core_properties
glance_core_properties=checksum,container_format,disk_format,image_name,image_id,min_disk,min_ram,name,size Добавил, но голяк (
Ruslan
Добавил туда новое проперти volume_backend_name?
glance_core_properties=HDD,NVME и так пробовал
Ruslan
но разворачивает не там
Ruslan
или туда нужно enabled_backends ?
Aleksey
glance_core_properties=HDD,NVME и так пробовал
Короче мы точно через образ добивались этого, но как точно сейчас сказать не могу
Aleksey
или туда нужно enabled_backends ?
Тут обязательно должны быть
Ruslan
Тут обязательно должны быть
да я иммел введу может их имя нужно
Aleksey
У тебя вообще в другом бэке волюмы создаются?
Ruslan
нет все в одном cinder
Ruslan
на одном сервере, просто два диска nvme и hdd
Aleksey
на одном сервере, просто два диска nvme и hdd
Это как? Т.е. ты не заводил 2й бэкенд?
Ruslan
не почему заводил, я думал ты про сервер enabled_backends = lvm,cinder-hdd [lvm] volume_driver = cinder.volume.drivers.lvm.LVMVolumeDriver volume_group = cinder-volumes iscsi_protocol = iscsi #iscsi_protocol = iser iscsi_helper = tgtadm volume_backend_name = NVME [cinder-hdd] volume_driver = cinder.volume.drivers.lvm.LVMVolumeDriver volume_group = cinder-hdd iscsi_protocol = iscsi #iscsi_protocol = iser iscsi_helper = tgtadm volume_backend_name = HDD
Ruslan
если создавать volume и указать тип то все работает
Ruslan
я хочу же создавать сразу по виртуалку
Aleksey
если создавать volume и указать тип то все работает
Тогда дальше ищи ту самую проперти, сейчас я тебе точно не подскажу
Ruslan
Тогда дальше ищи ту самую проперти, сейчас я тебе точно не подскажу
Вот подумал что я добавли значение ключа а не сам ключ в glance_core_properties, указал volume_backend_name но не помогло
Anonymous
@tr_ch будет жить. Поприветствуем!
Anonymous
Михаил Лепихин будет жить. Поприветствуем!
Kvan
AMQP server on controller:5672 is unreachable: timed out. Trying again in 32 seconds.: timeout: timed out кто сталкивался? rabbit тюнить надо если много вм ?
✠ FLASh ✠
Много - это сколько?
Kvan
1700VM
Kvan
Когда начинается много?
Ruslan
1700VM
а что по мониторингу или хотя бы на web-UI? Можно его масштабировать, проставить haproxy, развернуть еще одни rabbitmq, репликацию настроить. Вообще мы на одном проекте много боролись с rabbitmq, сейчас положили все в память и два сервера тянут хорошую нагрузку
Ruslan
1700VM
Может подскажешь Cinder volume_backend_name можно к flavors привязывать?
Ruslan
1700VM
Или как у вас реализованы развертывание VM's на разных стореджах?
Kvan
ceph?
Ruslan
ceph?
нет, обычный один сервер Cinder c двумя дисками ssd и hdd enabled_backends = lvm,cinder-hdd [lvm] volume_group = cinder-volumes volume_backend_name = NVME [cinder-hdd] volume_group = cinder-hdd volume_backend_name = HDD OpenStack flavor list --long https://i.imgur.com/tfWillm.png
Kvan
Нет, не скажу ничего о Cinder.
Anonymous
danil ivanov будет жить. Поприветствуем!
Pavel
Пруф дай. А то я тоже мучаюсь с привязкой
Aleksey
Да, и говорят работает
присоединяюсь к требованию пруфа
NS 🇷🇺
Пруфы не дам, рассказывали коллеги по цеху, с паяльником не стоял )
NS 🇷🇺
У меня кроме как к азеткам прибивать необходимости не было
Aleksey
Пруфы не дам, рассказывали коллеги по цеху, с паяльником не стоял )
ну тогда это из раздела "ну и вы говорите"
Annie
Вроде надо так openstack flavor set --property capabilities:volume_backend_name="NAME", не?
Jain
Может подскажешь Cinder volume_backend_name можно к flavors привязывать?
если к glance image добавить мету cinder_img_volume_type=<ваш тип> то вмка создаёться так гдк указывает тип. Проверил на lvm и ceph
Ruslan
если к glance image добавить мету cinder_img_volume_type=<ваш тип> то вмка создаёться так гдк указывает тип. Проверил на lvm и ceph
чудестная метка!!! 👍🏼👍🏼👍🏼👍🏼👍🏼👍🏼👍🏼
Jain
рад что вам помогло :)
Ruslan
если к glance image добавить мету cinder_img_volume_type=<ваш тип> то вмка создаёться так гдк указывает тип. Проверил на lvm и ceph
Буду в долгу! Вообще мне не очень нравится через images указывать тип диска но пусть пока хоть так
Anonymous
@aetitov будет жить. Поприветствуем!
Danila
Коллеги, пробую сменить flavor для trove инстанса, в ответ получаю <Flavor: nano.linux> is not JSON serializable Интернеты что-то молчат по этому поводу, подскажите куда копать ?
Ruslan
Ребята, кто встречал такую ошибку когда подключал еще одну nova: 2019-07-17 18:13:21.616 6340 ERROR nova.scheduler.client.report [req-49e74397-bb1b-4054-b708-dde57119db09 - - - - -] [req-26667633-94d2-40c4-b8ea-0f1429944ab2] Failed to create resource provider record in placement API for UUID 1f469cf3-b937-4535-8134-88f9848db9d3. Got 409: {"errors": [{"status": 409, "request_id": "req-26667633-94d2-40c4-b8ea-0f1429944ab2", "detail": "There was a conflict when trying to complete your request.\n\n Conflicting resource provider name: os08.block-storage02.biz already exists. ", "title": "Conflict"}]}. 2019-07-17 18:13:21.617 6340 ERROR nova.compute.manager [req-49e74397-bb1b-4054-b708-dde57119db09 - - - - -] Error updating resources for node os08.block-storage02.biz.: ResourceProviderCreationFailed: Failed to create resource provider os08.block-storage02.biz 2019-07-17 18:13:21.617 6340 ERROR nova.compute.manager Traceback (most recent call last): Эта нова уже была в кластере но сейчас не хочет нормально работать. Она появляется в nova service-list, hypervisors все в up но разместить на ней ничего нельзя
Ruslan
можно наверное попробовать поменять domain name но хочется решить нормальным путем проблему
Ruslan
тоже норм: /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova
Ruslan
проблема с бд placement там есть старые записи но как почистить если они даже не удаляются из-за связки ключей
Aleksey
конфликт uuid
Странно, не видел ни разу чтобы уиды дублировались
Ruslan
сервер стартанул с новым uuid а в базе был старый
Ruslan
в базу добавится не мог их-за одного hostname
Ruslan
хотя, я имя его менял в бази на левый но все равно не помогло
Ruslan
почистил все в базе что было с этим id и поменял uuid, так и завелось
Anonymous
Хочу поделится опытом. версия. stein. Мы задеплоили стандартно как у нас до этого было, qemu + linuxbridge. Перформенц был катастрофа. Были не обычные проблемы с SSL и CentOS. Машины подымались по 10 минут, backend все в Ceph. Сейчас передеплоили, ушли на kvm и openvswtich. Как день и ночь. 16 секунд и SRVO вообще красота, машины дикие в IOPS и скорости :)
Anonymous
ага, деплой делали через kolla и нашли баг что kvm игнорируется
Anonymous
той же Kolla
Anonymous
фикс
Anonymous
@vankosa будет жить. Поприветствуем!
Jain
Добрый день, ктонибудь вкурск почему TripleO WebUI и Openstack Director UI выпиливают?
Anonymous
@andrey_aha будет жить. Поприветствуем!
Ruslan
Так в kolla надо было выбрать # Valid options are [ qemu, kvm, vmware, xenapi ] #nova_compute_virt_type: "kvm"
спасибо, такое и юзаем. Меня смущало то что по ps я получаю процес qemu-system-x86_64 -enable-kvm # ps uax | grep kvm root 8113 4.0 1.4 2880244 488100 ? Sl Jul17 46:15 qemu-system-x86_64 -enable-kvm -name ... Хотя у нас на Proxmox /usr/bin/kvm -id 119 -name ... Думаю это из-за дистрибутива Ubuntu
Pavel
аааааа..... qemu kvm имя. я видимо старый что помню эти форки и слияния
Andrey
[root@compute2 ~]# grep kvm /etc/kolla/nova-compute/nova.conf virt_type = kvm /usr/libexec/qemu-kvm -name guest=instance-000000a8 ....
Ruslan
А подскажие, может чем мониторить все компаненты OpenStack лучше?