Alexander
Привет. Ну значит или его нет или он не там где надо, очевидно.
думал ,что ansible сам все подготовит . пока нашел что модуль ядра можно собрать . https://github.com/Juniper/contrail-container-builder/blob/master/containers/vrouter/kernel-build-init/Dockerfile
J
У меня тут возник гениальный план "высочайшей доступности" для криворукого админа. Беру контроллер ноду, копирую её полностью на ещё один сервер и настраиваю репликацию БД. Nova, cinder, glance на цефе. Если умерает контроллер - просто запускаю на нём все опенстаковские процессы и меняю айпи на айпи первого контроллера. Оно поднимется? Какие могут быть подводные? Мне кажется деплой средствами поддерживающими высокую доступность при моем уровне умственного развития займет слишком много времени, а вышеописанная схема даст мне возможность быстро восстановится в случае поломки контроллера.
Смотри, репликацию ты и так уже собрался настраивать, второй комплект всех сервисов тоже. На кой черт тебе тогда смена ip и ручная работа? Поставь балансировщик перед всеми сервисами и пусть они в active\active работают с распределением нагрузки. А для neutron, если используешь openvswitch нужно использовать dvr. Твоя схема в плане neutron чревата тем, что поскольку он на резервном сервере в работе не участвует до поры до времени, когда произойдет переключение, там не будет настроенных виртуальных роутеров, не будет нужных flow в ovs и вообще на какое-то время все поломается в плане сети. Опять же, сообщения из очередей rabbitmq (или какой у тебя там мессадж брокер) тоже потеряются. В общем, бедовая схема.
J
думал ,что ansible сам все подготовит . пока нашел что модуль ядра можно собрать . https://github.com/Juniper/contrail-container-builder/blob/master/containers/vrouter/kernel-build-init/Dockerfile
Наверное, должен, но кто ж его знает что не так пошло. Тут народа с контрейлом мало, как я понимаю.
Jain
Добрый день, что посоветуете для NVMe'шек под сторадж? Сеф думаю слишком медленный будет? linstore или есть чтото типа local-storage в cinder?
Jain
это эфермалеки будут тогда?
NS 🇷🇺
да
J
Добрый день, что посоветуете для NVMe'шек под сторадж? Сеф думаю слишком медленный будет? linstore или есть чтото типа local-storage в cinder?
Цеф будет не медленным, если тебя устроит 30-50k IOPS на одного клиента. А так в натуре, можно и в локальной фс хранить. Или натянуть поверх nvme какой-нить lizardfs или orangefs.
J
drdb :D
это линстор)
Jain
я тоже про линстор думал
Jain
в кубере покрайне мере работает на ура
Старый
может сразу lustre?
Алик Сережевич
Ерзент живой.
Artemy
локал сторадж можно и без синдера
Но лучше "с". Меньше проблем будет
J
Но лучше "с". Меньше проблем будет
Да ладно, кому как. Мне наоборот охрененно неудобно с синдером для рутовых дисков. rescue mode не работает, ребилд не работает, с дисками воиться иногда.
Dmitry
Добрый день, что посоветуете для NVMe'шек под сторадж? Сеф думаю слишком медленный будет? linstore или есть чтото типа local-storage в cinder?
циндер-вольюм локально на гиперах, прибиваете гвоздями виртуалку к гиперу - и будет у вас (хоть и через искази) - локальный поход к нвме
Dmitry
Да ладно, кому как. Мне наоборот охрененно неудобно с синдером для рутовых дисков. rescue mode не работает, ребилд не работает, с дисками воиться иногда.
смотря как использовать рутовые диски. кто то понимает, что они только для системы, а кто-то там хранит все и бегает с просьбой все восстановить, в случае чего
Dmitry
с просьбами - это еще хорошо
Jain
с просьбами - это еще хорошо
Обычно не просьбы, а угрозы. "Я вмку всеголиш переустановил. А оно мне важную прод базу снисло. Ваш касяк. Чините!!!111"
Dmitry
Dmitry
локальный поход в нвме == наиболее локальный из всего, что предоставляет циндер
Jain
прибить гвоздями не получиться. Гипервизор потом еще и обновляить то придёться. А вот кастомер на downtime аллергию имеет.
Roman
Всем привет. Изучаю сеть опенстека. Можете подсказать, можно ли каким-то штатным плагином neutron сделать only-l3 сеть? Чтобы на хост можно было добавить /32 адрес, статик роут и default-gw, compute нода этот адрес потом по bgp заанонсила роутеру. Нашел примерно такую реализацию cumulus bgp unnumbered, но в демо они реализовали vxlan приватную сеть и floating IP, что вроде как ничем не отличается от стандартного selfservice-network. Еще была тема с Neutron BGP VPN, которую на train запустить быстро не получилось, но оно походу и не решает данную задачу.
J
Есть вот такое https://docs.openstack.org/networking-bagpipe/latest/user/bagpipe-bgp.html
Roman
Просто видел реализацию, когда на хосте есть публичный адрес, и вторым интерфейсом подключена приватная сеть которая тоже роутится.
J
Просто видел реализацию, когда на хосте есть публичный адрес, и вторым интерфейсом подключена приватная сеть которая тоже роутится.
Ну у меня так на одной из работ сделано. Там, правда, опенстек не особо то и используют, пяток серверов и пара десятков виртуалок. По 2-4 сетевушки в сервере, каждая в своей сети, а между хостами ospf, который анонсирует /32 адреса лупбеков. Довольно стремная схема, но не развалилась пока)
Roman
А как лучше организовать сеть, если планируются предоставлять ВМ для публичного использования? Вариант с self-service сетью очень не нравится по причине NAT. Хотелось бы 2 интерфейса, один публичная сеть, второй для приватной (тут vxlan очень даже подходит)
J
А как лучше организовать сеть, если планируются предоставлять ВМ для публичного использования? Вариант с self-service сетью очень не нравится по причине NAT. Хотелось бы 2 интерфейса, один публичная сеть, второй для приватной (тут vxlan очень даже подходит)
self-service чем плох для приватной сети? Публичные адреса через провайдерскую сеть отдавай, из нее же можно выдавать плавающие адреса для тех кому напрямую на виртуалку не нужно эти адреса вешать.
Roman
self-service для приватной норм.
Sergei
внимание атракцион невиданной щедрости 🙂 дам потестировать бесплатно облако на базе OpenStack, с админкой по типу Vutrl но раз в 10 дешевле, и почасовым биллингом только не спамерам и тп в пм за купоном на 3 месяца работы )
Roman
бери calico как плагин для neutron
Спасибо, изучу этот вопрос.
Dmitry
С чего это? Оно замечательно мигрирует
мигрирует - да. но только после миграции ты начнешь ходить по сети, а это дополнительная задержка
Dmitry
?
?
NS 🇷🇺
Куда по сети ходить?
Dmitry
Куда по сети ходить?
за диском. у тебя нова компьют и циндер вольюм с лвм через искази на одном сервере. Тачку ты мигрировал, теперь у тебя тачка на втором сервере, а диск остался на первом
Dmitry
смигрируется, да. но ты начнешь получать задержку от сети
NS 🇷🇺
А с цефом у тебя сеть не используется?)
Dmitry
там эфемерки обсуждались
NS 🇷🇺
Так эфимерка без синдера у тебя никуда по сети ходить не будет, она будет лежать ровно на том же гипере, что и вм
Dmitry
у людей есть желание, как я понимаю - с минимальной задержкой отдавать диски.
Dmitry
Так эфимерка без синдера у тебя никуда по сети ходить не будет, она будет лежать ровно на том же гипере, что и вм
эфемерка и с синдером никуда не будет ходить :) я понимаю - если ты хочешь диски как то еще и менеджить более-менее - тогда лучше использовать циндер.
Dmitry
ну и миграция вм у тебя начнет происходить в два этапа - сначала ВМ, потом диск :)
Dmitry
Это мелочи
да, а вот нормальный ресайз/бэкап - уже не мелочи :) циндер дает больше удобства менджмента
Dmitry
ну все, конечно, зависит от задач
NS 🇷🇺
Нормальный бекап синдером? Ты серьезно?)
Dmitry
Нормальный бекап синдером? Ты серьезно?)
абсолютно. а в чем проблема?
Dmitry
у нас гонится ~200TB бэкапов за ночь 🤷 ну и что, что человеко-полгод на дорабтку...
NS 🇷🇺
Доработку 🤣
NS 🇷🇺
Я за ванильный говорю
Dmitry
Нормальный бекап синдером? Ты серьезно?)
и все-таки это лучше, чем лить в глянец, как делает нова :) но это имхо
Dmitry
Я за ванильный говорю
даже ванильный лучше - чем заливать все в гланц
Dmitry
Очень от бекенда зависит )
Конечно :) и от нагрузки. В общем все зависит от условий и задач
Sergei
Но уже нашел)
Pavel
Народ кто упражнялся с ironic. Хочу образ подготовить с boot отдельным и с lvm внутри которого root и остальное. Ни у кого нет конфига рабочего DIB_BLOCK_DEVICE_CONFIG
Artemy
А что не так с ванильным?
Ну, из этих 200 примерно 180 прогоняются за 10 часов (клиент днем хочет работать а не сидеть под снапшотом). Во-вторых, "стандартный" однопоточный. В результате он на цепочке чтение - контрольные суммы - запись выдает хорошо если 70МБ/сек. На сефе вообще 30. А потом к вам приходит кто-нибудь с 4TB волюмом который он хочет бэкапить. Еженочно. P.S.: а еще у нас есть 8TB волюм...
Artemy
В общем, есть чего "не так".
Fedor
Народ кто упражнялся с ironic. Хочу образ подготовить с boot отдельным и с lvm внутри которого root и остальное. Ни у кого нет конфига рабочего DIB_BLOCK_DEVICE_CONFIG
export DIB_BLOCK_DEVICE_CONFIG=''' - local_loop: name: image0 - partitioning: base: image0 label: gpt partitions: - name: ESP type: 'EF00' size: 200MiB mkfs: type: vfat mount: mount_point: /boot/efi fstab: options: "defaults" fsck-passno: 1 - name: BSP type: 'EF02' size: 8MiB - name: root size: 100G - lvm: name: lvm base: [ root ] pvs: - name: pv base: root options: [ "--force" ] vgs: - name: vg base: [ "pv" ] options: [ "--force" ] lvs: - name: lv_root base: vg extents: 20%VG - name: lv_tmp base: vg extents: 4%VG - name: lv_var base: vg extents: 40%VG - name: lv_log base: vg extents: 23%VG - name: lv_audit base: vg extents: 4%VG - name: lv_home base: vg extents: 1%VG - name: lv_swap base: vg extents: 8%VG - mkfs: name: fs_root base: lv_root type: xfs label: "img-rootfs" mount: mount_point: / fstab: options: "rw,relatime" fsck-passno: 1 - mkfs: name: fs_tmp base: lv_tmp type: xfs mount: mount_point: /tmp fstab: options: "rw,nosuid,nodev,noexec,relatime" fsck-passno: 2 - mkfs: name: fs_var base: lv_var type: xfs mount: mount_point: /var fstab: options: "rw,relatime" fsck-passno: 2 - mkfs: name: fs_log base: lv_log type: xfs mount: mount_point: /var/log fstab: options: "rw,relatime" fsck-passno: 3 - mkfs: name: fs_audit base: lv_audit type: xfs mount: mount_point: /var/log/audit fstab: options: "rw,relatime" fsck-passno: 4 - mkfs: name: fs_home base: lv_home type: xfs mount: mount_point: /home fstab: options: "rw,nodev,relatime" fsck-passno: 2 Максимум извращений, выбери что нужно. Ну и из опыта, dib периодически не может убить лупбек девайс с лвмом, неприятно для повторных запусков.
Fedor
Тьфу, оно ещё и с уефи. Не уверен, что конфиг рабочий, но логику понять можно легко))
Pavel
спасибо. там dm не отпускает loop
Pavel
это же конфги с rh
Fedor
там в итоге или ребут, или подсунуть ему ещё один девайс, расширить лвм и убить, но в любом случае, какой-то гемор, я сильно не борол, но сходу не получилось
Pavel
рачем ребут? dmsetup ls dmsetup remove ... losetup -D И никаких ребутов