Андрей
Добрый день подскажите какой драйвер использовать для Cinder Failed to initialize driver.: ProcessExecutionError: Unexpected error while running command. Command: sudo cinder-rootwrap /etc/cinder/rootwrap.conf env LC_ALL=C vgs --noheadings -o name dev/sda1 Exit code: 3 Stdout: u'' Stderr: u" Invalid volume group name dev/sda1.\n Run `vgs --help' for more information.\n" root@con:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 1.1T 0 disk |-sda1 8:1 0 1.1T 0 part / |-sda2 8:2 0 1K 0 part `-sda5 8:5 0 976M 0 part [SWAP] root@con:~# lvmdiskscan /dev/sda1 [ 1.09 TiB] /dev/sda5 [ 976.00 MiB] 0 disks 2 partitions 0 LVM physical volume whole disks 0 LVM physical volumes хочу cinder-volume запустить на диске dev/sda1
Андрей
Ну самое простое lvm
докинуть еще один диск и его определить как новый volume group ?
NS 🇷🇺
докинуть еще один диск и его определить как новый volume group ?
Ну ч на кофейной гуще пока гадать не научился, что у вас там ужо есть
Андрей
Ну ч на кофейной гуще пока гадать не научился, что у вас там ужо есть
[DEFAULT] rootwrap_config = /etc/cinder/rootwrap.conf api_paste_confg = /etc/cinder/api-paste.ini iscsi_helper = tgtadm volume_name_template = volume-%s volume_group = dev/sda1 verbose = True auth_strategy = keystone state_path = /var/lib/cinder lock_path = /var/lock/cinder volumes_dir = /var/lib/cinder/volumes enabled_backends = lvm transport_url = rabbit://openstack:openstack@controller #my_ip = 192.168.1.81 enabled_backend = lvmdriver glance_api_servers = http://controller:9292 target_protocol = lvm [lvm] volume_group = dev/sda1 volume_driver = cinder.volume.drivers.lvm.LVMVolumeDriver iscsi_protocol = iscsi iscsi_helper = lioadm target_protocol = lvm
Aleksey
nova-manage бомбанула ?
l3-ha по яйкам стрельнул
Dmitry
l3-ha по яйкам стрельнул
ну так бесполезная штуковина же =) давно вам говорю
Илья | 😶☮️🐸
l3-ha по яйкам стрельнул
надо было загонять в тангстен
Aleksey
Dmitry
чего? бесполезности ха роутеров?
Dmitry
скилл
Pavel
HA роутеры вовсе не ha
Aleksey
кто они и сколько их?
Aleksey
А что в нём плохого?
в том что keepalived и как следствие все его приколы
Aleksey
мы хотели чтобы в любой момент мог сдохнуть контрол и нам не надо было подрываться его поднимать или миграчить маршрутизаторы
Pavel
Ну оно же перемещает ip :) но это как как в анекдоте "хочы быть белым и чтобы на моих коленях сидели женщины"
Aleksey
но l3-ha с вврп больше нам гадил чем помогал ибо у нас всё в k8s и любая выкатка нового образа это передергивание l3-agent и как следствие перетряхивание всех роутеров с разрывами и всей херней
Aleksey
У меня кстати на колле не удалось воспроизвести тот кейс )
интересно почему keepalived случам не отдельно бежит ?
NS 🇷🇺
интересно почему keepalived случам не отдельно бежит ?
Что значит отдельно? Там все также в контейнерах. Разница лишь в том, что у меня в этой лабе ovn
Aleksey
Что значит отдельно? Там все также в контейнерах. Разница лишь в том, что у меня в этой лабе ovn
так погоди, а в ovn l3-ha завели? если да, то там keepalived не должно быть и следовательно всех его проблем
Aleksey
@stress_t переезжаем на ovn
Aleksey
Aleksey
@stress_t переезжаем на ovn
чтобы опять включить l3-ha 😂
Андрей
И у вас группа такая есть в лвм?
нету( root@storage:~# vgdisplay root@storage:~# ладно перемонтирую систему
Maksimus Ulibikus
Всем привет. При реализации openvswitch должно быть состояние UP или DOWN? Это на конроллере 5: ovs-system: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 7a:b1:01:af:a4:3c brd ff:ff:ff:ff:ff:ff 6: br-tun: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 8a:70:54:39:ad:4d brd ff:ff:ff:ff:ff:ff 7: vxlan_sys_4789: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 65000 qdisc noqueue master ovs-system state UNKNOWN group default qlen 1000 link/ether 26:1d:b4:38:b3:a2 brd ff:ff:ff:ff:ff:ff inet6 fe80::241d:b4ff:fe38:b3a2/64 scope link valid_lft forever preferred_lft forever 8: br-int: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 76:60:03:84:97:47 brd ff:ff:ff:ff:ff:ff 12: br-ext: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 00:50:56:b6:2e:75 brd ff:ff:ff:ff:ff:ff
Maksimus Ulibikus
network node у меня нет, то есть весь neutron на контроллере
Stanley
Ну если интерфейс в дауне - значит он в дауне. А должен ли он быть в дауне - вопрос философский. Может должен быть в дауне, а может не должен быть в дауне.
Stanley
у ovs часто ок, что он инты в дауне показывает
Да? Не видел. По мне так если бридж в дауне, то трафика там нет.
NS 🇷🇺
Да? Не видел. По мне так если бридж в дауне, то трафика там нет.
я тож часто удивлялся... но чет руки на магию сходить посмотреть так и не дошли
NS 🇷🇺
скорее баг, чем фича
Илья | 😶☮️🐸
а тот, что не в дауне
Илья | 😶☮️🐸
Stanley
я тож часто удивлялся... но чет руки на магию сходить посмотреть так и не дошли
Ну в овс это было бы легко посмотреть. Видимо просто в воздухе висел, воздух грел
Stanley
Ну так что, никто VPNaaS не пользует? Или просто не живое?
NS 🇷🇺
там вроде 3 бекенда и даже работало... правда периодически при удалении висело в делетинг, а при создании в криэйтинг часто
NS 🇷🇺
да и на хрен оно реально нужно в таком виде - не понятно.
NS 🇷🇺
она в 99% процентах не нужна, я даже хз кто может быть потребителем данной услуги с такими бекендами
Stanley
Просто у нас тут случились веяния, что мол пусть пользаки сами тунели строят между цодами, да и в ветку vpnaas кто-то начал коммитить. Потому и возник вопрос: стоит ли
Stanley
Но уже понимаю что нах. :(
J
Ну мы вроде и пустили и дали народу пользоваться. strongswan пыхтит, все штабильно и все такое, но народу оно не особо надо. Потому, наверное, что ipsec сложен для понимания тех кому неохота вникать, а других драйверов щас и нету в vpnaas.
NS 🇷🇺
Танг…кхм…стен. Интер…кхм…коннект
честно, уже от упоминания этого гавна подташнивает
J
кмк проще инстанс поднять там и там и связать через них проекты между цодами
Да, но vpnaas красивше и правильнее, так то. Не надо порт секьюрити выключать, нету привязки к одному единственному инстансу.
Stanley
Че сказал???
NS 🇷🇺
да ладно, сейчас че ток нет, от плейбуков до готовых решений
NS 🇷🇺
Необходимое зло
пока ток ты один тут страдаешь =)
Stanley
Проклято.
J
да ладно, сейчас че ток нет, от плейбуков до готовых решений
Это сильно от специфики твоей клиентской базы зависит) У нас много клиентов которые, может, хотели бы объединить свои сети у нас и еще в чьем-то облаке, но они и с линуксами то еле-еле дружат. Так что, какие там плейбуки)
NS 🇷🇺
https://docs.pritunl.com/docs не благодари =)
Stanley
А еще терраформ не умеет в опенвпн, ха
NS 🇷🇺
А еще терраформ не умеет в опенвпн, ха
так терраформ про инфру, тут ансибл, салт и им подобные
Stanley
Ну емае. Опенвпн это два серта и полчаса. :(
J
tailscale ?
Ну да, tailscale, zerotier, даже просто wireguard уже былло бы неплохо) Но ни у кого не возникло пока такой сильной потребности чтоб под это vpnaas драйвер писать.
J
Ага. Облаками давно уже не только айтишники пользуются)
Stanley
Ну понятно. Значит сетевое - сетевикам, а кесарю кесарево
NS 🇷🇺
для таких ребята из амнезии неплохой инсталятор написали
Roman
у меня такое лицо было когда я первый раз kolla увидел 😆
Fedor
tailscale ?
Говорят, что headscale более кошерно.
Dmitry
network node у меня нет, то есть весь neutron на контроллере
Раскатывал Zed на стенде через kolla-ansible, там такая же шляпа с состоянием интерфейсов DOWN. Трафик при этом между public и private сетью ходит.
J
А кто? Кому оно нафиг нужно еще???
vdi держат, конвертируют фото\видео, майнят всякие копровалюты. Кто в GPU облаках - у тех рендер, нейросети, сапр и все такое.
NS 🇷🇺
Говорят, что headscale более кошерно.
да тут не важно, главное правильный вектор задать мамкиным админам. Тем более хед - это про селфхостед, а тейл - уже все для хомячков
Dmitry
У меня тоже всё ходит, но DOWN, UNKNOWN меня смутили
Я об этом тоже написать сюда хотел. после ip link set %ifacename% up статус тоже становится UNKNOWN, но tcpdump начинает снифать пакеты которые через бриджи летают. Пока они DOWN, естественно tcpdump трафик не видит.