NS 🇷🇺
NS 🇷🇺
NS 🇷🇺
NS 🇷🇺
кроме трейса питона, по которому надо теоретически лезть в код
NS 🇷🇺
openstack network create --provider-network-type vlan --provider-physical-network physnet1 --provider-segment 330 vlan330_vm_net
Error while executing command: BadRequestException: Unknown error, {"NeutronError": {"message": "Invalid input for operation: physical_network 'physnet1' unknown for VLAN provider network.", "type": "InvalidInput", "detail": ""}}
NS 🇷🇺
вот так оно без дебага быглядит
NS 🇷🇺
да
NS 🇷🇺
cat /etc/kolla/neutron-linuxbridge-agent/ml2_conf.ini
[ml2]
type_drivers = flat,vlan,vxlan
tenant_network_types = vxlan
mechanism_drivers = linuxbridge,l2population
extension_drivers = port_security
[ml2_type_vlan]
network_vlan_ranges = physnet1:2:4094
[ml2_type_flat]
flat_networks = *
[ml2_type_vxlan]
vni_ranges = 1:1000
vxlan_group = 239.1.1.1
[securitygroup]
firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver
[linux_bridge]
physical_interface_mappings = physnet1:bond0
[vxlan]
l2_population = true
local_ip = 10.0.214.72
NS 🇷🇺
он тут в приципе от инсталяции к синсталяции мигрирует конфиг
Aleksey
Fedor
NS 🇷🇺
Fedor
Dmitry
а зачем это здесь?
Denis
Ребят, а подскажите, никто не сталкивался с libvirt и его сломанными cgroups?
libvirt у нас в докере от kolla.
Denis
воспроизвести руками не удается, но
- если у проблемных vm поправить сигруппы, то virsh cpu-stats начинает работать
- если проблемную ВМ перезапустить, то ожидаемо сигруппы чинятся сами
- спустя время (~1 сутки) сигруппы снова слетают в обоих случаях
Denis
http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-ru
Ребят, а только я это вижу? ))))
Dmitry
Нескучная кодировка? Да, я когда подписывался, мне приходилось угадывать, какие поля заполнять. Поменять почему-то не вышло, не помню, почему.
Denis
да очевидно, сервер шлет в utf8, а куски темплейта видимо в разных кодировках
Denis
Pavel
там же все гвоздями прибито в колле, на что меняется cgroup?
Pavel
сам libvirt там запускается в спецальном NS и сигруп я там не видел вроде
Denis
для процессов qemu-kvm и kernel треда vhost-1234 (1234 pid для qemu-kvm) сигруппы приходят вот примерно в такое плачевное состояние
$ cat /proc/8275/cgroup
11:blkio:/user.slice
10:devices:/user.slice
9:hugetlb:/docker/e5bef89178c1c3ae34fd2b4a9b86b299a6145c0b9f608a06e83f6f4ca4d897bd
8:cpuacct,cpu:/user.slice
7:perf_event:/machine.slice/machine-qemu\x2d25\x2dinstance\x2d000004cb.scope
6:net_prio,net_cls:/machine.slice/machine-qemu\x2d25\x2dinstance\x2d000004cb.scope
5:freezer:/machine.slice/machine-qemu\x2d25\x2dinstance\x2d000004cb.scope
4:memory:/user.slice
3:pids:/user.slice
2:cpuset:/machine.slice/machine-qemu\x2d25\x2dinstance\x2d000004cb.scope/emulator
1:name=systemd:/user.slice/user-0.slice/session-c1068.scope
Denis
ну тут очевидно куда должны смотреть сигруппы
Denis
а вот почему они улетяют в какую-то рутовую сессию - загадка
Denis
пробовал добавлять audit для отслеживания каталога с сигруппами /sys/fs/cgroup/CGNAME/machine.slice пока только libvirtd засветился.
Ilya
koi8-ru там)
Можно переключить на английский =) В целом никто не пользуется этим листом рассылки уже 4 года. Если очень надо и есть люди готовые использовать, могу пойти подокапываться до команды инфры
Denis
Eugen
Добрый вечер.
Существует ли возможность в Ironic при автоматическом clean удалять логические диски (нода с рэйдом), подобно тому, как происходит при ручном clean:
[{"interface":"raid","step":"delete_configuration"},{"interface":"deploy","step":"erase_devices_metadata"},{"interface":"raid","step":"create_configuration"}]
Добавляю [deploy]erase_devices_priority=0 - остаются /dev/sda*, /dev/sdb*, потом не накатывается ОС.
Убираю - соответственно начинается затирание с shred, а винты по несколько ТБ.
Может я что-то делаю не так? В какую сторону копать?
Dmitry
Добрый вечер.
Существует ли возможность в Ironic при автоматическом clean удалять логические диски (нода с рэйдом), подобно тому, как происходит при ручном clean:
[{"interface":"raid","step":"delete_configuration"},{"interface":"deploy","step":"erase_devices_metadata"},{"interface":"raid","step":"create_configuration"}]
Добавляю [deploy]erase_devices_priority=0 - остаются /dev/sda*, /dev/sdb*, потом не накатывается ОС.
Убираю - соответственно начинается затирание с shred, а винты по несколько ТБ.
Может я что-то делаю не так? В какую сторону копать?
Пока нет. Будет можно включить delete_configuration когда https://review.opendev.org/744117 будет.
Dmitry
Пока можно похакать код, поменяв приоритет у delete_configuration на что-то больше нуля.
Eugen
Vladimir
https://www.youtube.com/watch?v=rzfdiile-UM кто там может достучаться, попросите сменить превьюшку ...
Denis
Aleksandr
Вечер в хату. Как(чем) опенстек ресайзит диск при openstack server resize --flavor FLAVOR SERVER ?
J
Aleksandr
local хранилище (нова)
J
Aleksandr
da
Aleksandr
qcow
Aleksandr
qemu-img не ресайзит же ФС, только партицию
Aleksandr
не?
J
Ты в кашу все не мешай.
J
nova меняет размер файла-образа с помощью qemu-img, а разделы растягивает и ресайзит файловую систему cloud-init или cloudbase-init внутри виртуальной машины.
Aleksandr
видимо вопрос "кто ресайзит диск" был понят слишком буквально. Есесно я говорил про всю процедуру целиком)
Aleksandr
Mike
Всем привет, кто-нибудь знает почему kolla-kubernetes retired? И кто-нибудь деплоил контроллеры на кубере?
Vladyslav
Mike
Vladyslav
Продакшен реди.
Mike
Mike
А кто-нибудь пробовал rook в качестве бэкенда cinder?
Я и твой кот
Mike
Я и твой кот
А что?
Приятно слышать, что OSH называют продакшн-реди.
Boriss
Boriss
https://docs.google.com/spreadsheets/d/1JbOQELqXG_GDoP1jo6YoRDytpTkJEs89TVimzvrqc_A/edit#gid=1107209846
Aleksey
Есть у кого-нибудь идеи как можно решить вот такой кейс ?
Используем volume-backed images и при создании ВМ на волюмах все работает отлично.
Появились эфемерки и тут получается такая ситуация:
- у нас СХД через FC
- при заказе нескольких ВМ они шедулятся по разным гиперам
- если там не было кеша нова идет в гланс за образом
- у нас 3 гланаса(но в целом это не важно)
- каждый пытается зааттачить волюм себе и так как нет мультиаттачмента(на уровне СХД) то часть ВМ валятся в ERROR.
Вижу только вариант залить отдельно образа для эфемерок на s3 и раздавать их от туда, но это какая-то дичь
Aleksey
ну или пропатчить glance-api чтобы он не валился если волюм с образом уже заатачен
NS 🇷🇺
Aleksey
NS 🇷🇺
NS 🇷🇺
гленса так же 3
NS 🇷🇺
по этому и удивился, что это для эфимеров больно оказывается
NS 🇷🇺
Коллеги, а кто-то использует V5 стораджа от хуавей с хиперметро в опенстек?
Aleksey
NS 🇷🇺
Dmitry
А появился драйвер для с3 в апстриме от гланса?
NS 🇷🇺
NS 🇷🇺
😄