Stepan T.
Stepan T.
Проблема была в следующем. Я в роутер руками добавлял порт с IP из сети, которую мне выдал сетевой админ. А нужно было этого не делать, а нажать на кнопку создать шлюз. Он подставляет порту роутера адрес из диапазона IP указанных в разделе про DHCP, там происходит какая-то магия и трафик из виртуалки начинает ходить в интернет.
Stepan T.
Не очень очевидное поведение.
Aleksey
многие же делают https терминейшен на каком-нибудь прокси, а на самих сервисах https не настраивают ?
Aleksey
у меня сейчас странное поведение, я похоже уперся в osapi_max_limit = 1000 после чего второй запрос почему-то идёт уже на http
Aleksey
как времянку конечно можно поднять лимиты, но всё равно решать то как-то надо
Stepan T.
Aleksey
похоже должно решиться через #public_endpoint = <None>
по крайней мере по коду они именно его проверяют
Andrey
Пытаюсь ограничить агрегат, взял команду из доки.
Что-то пошло не так. Есть какие идеи?
openstack: '--os-placement-api-version=1.2 resource provider aggregate set --aggregate ea1c8d76-4526-4439-8fe7-f3ab2adfe9bf 77f6400f-e62b-4976-84c2-36a3bac4e57f' is not an openstack command. See 'openstack --help'.
Клиент
openstack --version
openstack 5.5.0
Стек Victoria
NS 🇷🇺
Andrey
Задача какая,я чёт не понял
Хочу в агрет разрешить(запретить) ходить тенанту.
https://docs.openstack.org/nova/latest/admin/aggregates.html#tenant-isolation-with-placement
Я не могу понять, почему клиент не знает команды resource provider
Такое ощущение, что нужно доставить пакет для работы клиента.
Andrey
Разобрался
pip install osc-placement
NS 🇷🇺
Maksimus Ulibikus
Всем привет.
На controller создал 3 сабинтерфейса
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens224: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
link/ether 00:50:56:b6:d6:36 brd ff:ff:ff:ff:ff:ff
inet 192.168.10.198/24 brd 192.168.10.255 scope global noprefixroute ens224
valid_lft forever preferred_lft forever
inet6 fe80::250:56ff:feb6:d636/64 scope link
valid_lft forever preferred_lft forever
3: ens256: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
link/ether 00:50:56:b6:9b:e6 brd ff:ff:ff:ff:ff:ff
4: ens256.192@ens256: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master brqda043c80-50 state UP group default qlen 1000
link/ether 00:50:56:b6:9b:e6 brd ff:ff:ff:ff:ff:ff
inet6 fe80::250:56ff:feb6:9be6/64 scope link
valid_lft forever preferred_lft forever
5: ens256.175@ens256: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master brq713e3b97-0e state UP group default qlen 1000
link/ether 00:50:56:b6:9b:e6 brd ff:ff:ff:ff:ff:ff
inet6 fe80::250:56ff:feb6:9be6/64 scope link
valid_lft forever preferred_lft forever
6: ens256.172@ens256: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master brqb1b506d5-57 state UP group default qlen 1000
link/ether 00:50:56:b6:9b:e6 brd ff:ff:ff:ff:ff:ff
inet6 fe80::250:56ff:feb6:9be6/64 scope link
valid_lft forever preferred_lft forever
На контроллере в /etc/neutron/plugins/ml2/linuxbridge_agent.ini
[linux_bridge]
physical_interface_mappings = vlan175:ens256.175,vlan172:ens256.172,vlan192:ens256.192
На compute в /etc/neutron/plugins/ml2/linuxbridge_agent.ini:
[linux_bridge]
physical_interface_mappings = vlan175:enp1s0f1
Дебаг везде включен, ни одного ERROR нет. Не могу сообразить где искать проблему.
Maksimus Ulibikus
На контроллере сейчас
Maksimus Ulibikus
J
Всем привет.
На controller создал 3 сабинтерфейса
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens224: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
link/ether 00:50:56:b6:d6:36 brd ff:ff:ff:ff:ff:ff
inet 192.168.10.198/24 brd 192.168.10.255 scope global noprefixroute ens224
valid_lft forever preferred_lft forever
inet6 fe80::250:56ff:feb6:d636/64 scope link
valid_lft forever preferred_lft forever
3: ens256: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
link/ether 00:50:56:b6:9b:e6 brd ff:ff:ff:ff:ff:ff
4: ens256.192@ens256: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master brqda043c80-50 state UP group default qlen 1000
link/ether 00:50:56:b6:9b:e6 brd ff:ff:ff:ff:ff:ff
inet6 fe80::250:56ff:feb6:9be6/64 scope link
valid_lft forever preferred_lft forever
5: ens256.175@ens256: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master brq713e3b97-0e state UP group default qlen 1000
link/ether 00:50:56:b6:9b:e6 brd ff:ff:ff:ff:ff:ff
inet6 fe80::250:56ff:feb6:9be6/64 scope link
valid_lft forever preferred_lft forever
6: ens256.172@ens256: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master brqb1b506d5-57 state UP group default qlen 1000
link/ether 00:50:56:b6:9b:e6 brd ff:ff:ff:ff:ff:ff
inet6 fe80::250:56ff:feb6:9be6/64 scope link
valid_lft forever preferred_lft forever
На контроллере в /etc/neutron/plugins/ml2/linuxbridge_agent.ini
[linux_bridge]
physical_interface_mappings = vlan175:ens256.175,vlan172:ens256.172,vlan192:ens256.192
На compute в /etc/neutron/plugins/ml2/linuxbridge_agent.ini:
[linux_bridge]
physical_interface_mappings = vlan175:enp1s0f1
Дебаг везде включен, ни одного ERROR нет. Не могу сообразить где искать проблему.
А тебе же говорили, вроде, что это колхозный и плохой способ провайдерские сети заводить на гипервизоры.
J
Удали все сабинтерфейсы, оставь одну физическую сеть типа flat и поверх неё создавай в нейтроне уже сети с vlan инкапсуляцией.
J
И ты не написал в чем проблема, собственно.
Maksimus Ulibikus
J
Так смотри логи агентов чо они там пишут.
Zloi
Народ, пытаюсь развернуть kolla-ansible\openstack:victoria .. пречек проходит.. а вот на деплое заваливается ..
TASK [nova-cell : Waiting for nova-compute services to register themselves]
Zloi
сам еонтейнер постоянно
kolla/ubuntu-source-nova-compute:victoria "dumb-init --single-…" 7 minutes ago Restarting (0) 36 seconds ago
Zloi
в лога контейнера
INFO:main:Setting permission for /var/lib/nova/.cache/python-entrypoints/21282ebccbea194e79535516ed75c603d02503ec025a68798a00326ffa2318f6
++ cat /run_command
+ CMD=nova-compute
+ ARGS=
+ sudo kolla_copy_cacerts
+ [[ ! -n '' ]]
+ . kolla_extend_start
++ [[ ! -d /var/log/kolla/nova ]]
+++ stat -c %a /var/log/kolla/nova
++ [[ 2755 != \7\5\5 ]]
++ chmod 755 /var/log/kolla/nova
++ . /usr/local/bin/kolla_nova_extend_start
+++ [[ ! -d /var/lib/nova/instances ]]
+ echo 'Running command: '\''nova-compute'\'''
+ exec nova-compute
Running command: 'nova-compute'
Zloi
подскажите куда посмотреть?
Maksimus Ulibikus
Так смотри логи агентов чо они там пишут.
Удалил сабинтерфейсы.
В /etc/neutron/plugins/ml2/linuxbridge_agent.ini
[linux_bridge]
physical_interface_mappings = provider:ens256
В /etc/neutron/plugins/ml2/ml2_conf.ini
[ml2]
type_drivers = flat,vlan
tenant_network_types =
mechanism_drivers = linuxbridge
extension_drivers = port_security
[ml2_type_flat]
flat_networks =
[ml2_type_vlan]
network_vlan_ranges = ens256:192:192,ens256:172:172,ens256:175:175
Пробую:
openstack network create --share --external \
--provider-physical-network provider \
--provider-network-type vlan \
--provider-segment 175 provider
Получаю ошибку:
Error while executing command: BadRequestException: 400, Invalid input for operation: network_type value 'vlan' not supported.
Не пойму, почему vlan не поддерживается, если type_drivers = flat,vlan
Maksimus Ulibikus
Перезагрузил ноду, теперь при попытки создать Invalid input for operation: physical_network 'provider' unknown for VLAN provider network
Maksimus Ulibikus
Maksimus Ulibikus
В логах агента ни одного ERROR. Есть мысли?
Ask
Коллеги, можно ли применить один и тот же флевор к вм уже созданном, просто изменив методанные?ресайз требует другого флевор. Приходиться на левый флевор переключаться, а потом обратно.
Vyacheslav
Maksimus Ulibikus
Maksimus Ulibikus
Ask
Vyacheslav
Vyacheslav
Resize
https://docs.openstack.org/nova/rocky/user/resize.html
Ask
Resize
When resizing, instances must change flavor. Ошибку выдает.
Vyacheslav
Может быть холодная миграция
Aleksey
Aleksey
Vyacheslav
если надо добавить в уже созданную vm
Aleksey
если надо добавить в уже созданную vm
ну я к тому что если в конечном итоге данные добавляются в мету ВМ, то может проще мету поменять, для существующих, а новые пусть через флейвор
Aleksey
ну в край всегда можно в базюльку сходить 😂
Vyacheslav
а как добавить hw_vif_multiqueue_enabled в запущенную VM?
Aleksey
J
Без выключения\включения в любом случае никак, нужно чтоб qemu-kvm процесс виртуалки перезапустился с новыми аргументами.
Vyacheslav
.
Всем доброго времени суток, есть какие нибудь надеждные opensource billing solutions для стэка? Мне для презентации нужно
Vyacheslav
целиметр модуль в стаке
.
А еще?)
Я и твой кот
А еще?)
Там только один модуль остался. На его данных народ делает биллинги.
J
А еще?)
Еще кто помоднее делают на основе cloudkitty.
J
А готовых опенсорсных и при этом бесплатных, вроде, нет.
Andrey
Вм не создается в одном тенанте, получаю “No valid host was found”
Не могу понять на каком фильтре меня выкидыват. Может не туда смотрю
Логи из nova-scheduler
https://pastebin.com/jnS3JrQZ
J
Andrey
Как можно ограничить кол-во одновременно создаваемых вм?
Илья | 😶☮️🐸
J
Andrey
Для всех сразу?
Да, вроде был параметр для шудулера, чтобы порциями создавались, а не сразу 100вм
Pavel
J
Andrey
Что-то найти не могу
Andrey
Andrey
Может кто сталкивался?
Создаю 50 вм с локальными дисками(nova) и у меня гланс начинает мандить.
1469 ERROR glance.location [……. - default default]
Glance tried all active locations to get data for image 79f3789c-f708-41ba-b9bc-38745c392f79 but all have failed.
Гланс на цефе. Такая проблему нету если вм создаются цефе.
Илья | 😶☮️🐸
Andrey
Как образ попадает на компут, когда диски делает нова?