Uncel
Uncel
https://code.facebook.com/posts/365787980419535/scalable-and-secure-access-with-ssh/
sbog
Ну да.
https://libvirt.org/remote.html
То, что нужно. Как-то я упустил этот момент в libvirtd совсем. А не пробовал сам? Опенстек нормально работает при таком транспорте? Ну т.е. понятно, что там не должно быть проблем, просто уточняю.
J
sbog
У этого мужика такое лицо, что не читая заметку можно понять, что все работает ок, лол
sbog
Спасибо 👍
citius
sbog
А как вы его состыковываете с деплоем этих ключей?
citius
ну раскладывать/удалять - пофиг чем, хоть ансибл, хоть папет.
а история и отзывы - через FreeIPA.
citius
по сути раскладывать то нужно только приватный.
citius
если ты его отзываешь - делаешь же какой-то новый и раскладываешь уже новый.
citius
а пускать или нет в конкретном случае решает уже стандартная связка с ipa через pam.
Anonymous
товарищи, кто знает, каков сейчас статус murano?
Andrey
Уже не разрабатывают
Andrey
Меликян и его команда вроде больше им не загимаются
sbog
Все так, да. Вся команда разошлась.
Andrey
Теперь тока сообщество штопает патчи
Anonymous
🙁
Maksim
sbog
Это про TLS-ключи, не про SSH. В TLS тебе не надо absent делать в паппете, ты ключ в PKI просто в CRL добавляешь - и все, он больше не работает. Сразу. В этот же момент. Не надо с горящей жопой делать деплой на 1000 машин.
sbog
Плюс ты историю этих ключей хранишь, что бывает нужно.
Maksim
Идея та же
Maksim
Генеришь и деплоишь новый)
sbog
Идея не та же. В случае с SSH ключами ты повторяешь деплой, что не всегда возможно сделать быстро в больших окружениях. Ты обязан повторить деплой, чтобы отозвать старый ключ. А в случае с TLS ты просто отзываешь ключ в одном месте, причем это место создано для работы с этими ключами. И ты просто временно теряешь возможность миграции для одной машины. А потом уже делаешь деплой не спеша.
sbog
До кучи (мне лично не актуально, но все-таки) - ты можешь иметь один PKI и, скажем, 10 разных облаков, к которым у тебя даже доступа для деплоя нет. С ssh ключами ты начинаешь огребать. С tls ключами ты отзываешь ключ без деплоя.
Maksim
Это упрощает с одной стороны, но усложняет настройку хоста. Тебе нужно и openssh конфигурировать и pam и возможно ещё что)
sbog
Да, разумеется. Плюс там возникает миллион вопросов к организации этого самого PKI. Это просто охренительно все усложняет.
sbog
И это, наверное, основной минус.
Maksim
так что стоит подумать насчет простого scm+authorized_keys
Igor
починил, добавив try.except в /usr/lib/python2.7/dist-packages/ryu/services/protocols/bgp/peer.py
на self._send_outgoing_route() но это быстрое решение( надо все таки в нейтрон смотреть наверное, почему в раббит v4 сеть приходит с маршрутов v6
Dima
Привет, не подскажете в чем проблема, может кто сталкивался.Не получается создать в swift+radosgw два контейнера с одинаковыми именами под разными tenants. Например конт test21
При обращении получаю https://ххх.ru:8080/swift/v1/82cff387e99e464c9cf232a0285b10e7/test21 401 Unauthorized
Хотя на 82cff387e99e464c9cf232a0285b10e7 контейнера test21 нет совсем. Он есть только на 8c4983dcb1fc41d1a18bc6a92c3e8be8
И к нему насколько понимаю логику обращение должно быть только через
https://ххх.ru:8080/swift/v1/8c4983dcb1fc41d1a18bc6a92c3e8be8/test21
Dima
А все нашел rgw keystone implicit tenants была false в ceph.conf
Если поставить true то для новых tenant создает корректно.
Roman
✠ FLASh ✠
всем привет, кто-то подключал NetApp бекенд так чтоб работала и метадата и лайв миграция?
NS 🇷🇺
метадата, это которая в инстанс передается?
Alexey
Эээ.
Alexey
Нетапп по nfs?
NS 🇷🇺
у нас по FC
Михаил
Специалисты по cloud-init есть? Мне надо странное. Сделать network-config disabled. Единственным способом который у меня получился это создать файл /etc/network/interfaces.d/99-disable-network-config.cfg и прописать в него network: {config: disabled}
разные комбинации с
прописыванием в user-data согласно разным документациям
network-config={config: disabled}
и
network:
config: disabled
успеха не принесли.
не то что бы меня прям парила генерация файла, но немного страдает чувство прекрасного.
конфиг для cloud-init прилетает через ISO.
И не спрашивайте зачем я так упоролся)
Evgeny
У кого-нибудь работает в проде схема когда OpenStack использует разные Ceph пулы ( HDD+SSD и Full SSD например) - как описано тут у Себастьена https://www.sebastien-han.fr/blog/2015/09/15/openstack-nova-configure-multiple-ceph-backend-on-one-hypervisor/ ?
Evgeny
Кажется достаточно сильно усложняет все такой вариант, возможно есть вариант проще.
Vadim
всем привет! подскажите, какие компании в России сапортят openstack 24x7? цена поддержки интересна
Александр
аутсорс или интеграция?
Vadim
аутсорс
Valery
Мирантис когда то занимался, думаю что ИТКей не откажется, могу познакомить. Мопед не мой ;)
Valery
На каком дистрибутиве кластер? Имеется в виду и Linux и OS.
Vadim
в личке
Valery
ок
Александр
@SinTeZoiD у вас там вроде бы была продажа поддержки опенстэка
Inna
Evgeny
NS 🇷🇺
Evgeny
Shamil
А кто-нибудь разворачивал это: https://github.com/redhat-openstack/openshift-on-openstack
Shamil
У меня возникает ошибка при развертывании стека, когда создаётся bastion_host кейстоун куда то его не пускает.
Shamil
Ну т.е. начинается создание стека, первым хостом в нем идет bastion_host, и вот когда идёт его создание heat выдает 2017-12-02 16:28:02Z [my-openshift]: CREATE_FAILED Resource CREATE failed: AuthorizationFailure: resources.bastion_host.resources.wait_handle: Authorization failed.
Shamil
Есть знатоки Heat?
citius
народ, а есть кто в openstack-ansible глубоко разбирается?
это ппц, ну просто ад какой-то.
начал с ним практически с нуля ковырятся, через 5-7 итераций (на виртуалках, которые откатываются на чистый снапшот) вроде разобрался практически со всем нюансами, все более-менее работало.но теперь уперся лбом просто.
не может оно поднять опенстек, конфиг такой же как раньше был и все работало.
теперь же все проходит отлично до плейбука setup-openstack, который валится на настройке heat контейнеров.
причем heat он не может поднять потому, что галера в дауне, а она реально развалена уже на этом моменте до такой степени, что mariadb даже не стартует.
citius
пробовал openstack-ansible из stable/pike, и просто руками последние теги из их репы - 16.0.4 и 16.0.3. косяк одинаковый.
система - убунту 16.04
Shamil
Shamil
https://github.com/openstack/openstack-ansible/blob/master/playbooks/galera-install.yml — получается вот здесь где-то?
Shamil
А ты где это запускаешь? Виртуалки в смысле?
citius
виртуалки на esxi хостах.
setup-hosts полностью успешно проходит.
setup-infrastructure типа валится в первый раз - ругается на контейнеры галеры и ребита, но при этом проверка кластеров галеры и ребита проблем не показывает, кластера собраны. второй проход setup-infrastructure поверх - уже без ошибок.
дальше setup-openstack проходит фактом до конца, устанавливает все компоненты кроме heat и horizon.
Shamil
>>> виртуалки на esxi хостах
Тяжелый случай. Ты их, получается, сбрасывал к ранним снимкам и там пробовал прокатить роль, в какой-то момент у тебя все накатывалось, а теперь перестало?
citius
я сбрасываю практически на ноль все, в т.ч. deployment host. чтобы никаких хвостов.
Shamil
Я бы повесил дебаги, для начала на сеть.
Shamil
Посмотри как в ансибле, отправлять результаты в стандартный вывод.
Shamil
Все ли репозитории доступны, для ансибля? Может когда ты раньше собирал, что то было доступно, а теперь упали репы какие-то?
citius
я умею в ансибль. :)
citius
проблема там явно в самих ролях openstack-ansible, опять какой-то ебучий нюанс видимо не учитываю.
хотя конфиг элементарный.
Shamil
Раз ты говоришь, что окружения одинаковые, значит надо искать разницу за пределами окружения. По-моему так.
citius
а пакеты кешируются на repo контейнеры, оно бы падало раньше (и бывало кстати падало)
Shamil
Что могло еще поменяться? Версии везде стоят latest небось?
citius
окружения одинаковые, но обновлялся репозиторий openstack-ansible на гитхабе
citius
вот есть такое ощущение что там что-то сломали. но доказать не могу. (
Shamil
Ну попробуй откатиться к предыдущему коммиту и собрать.
Yuf
citius
Shamil
На centos тоже самое ?
Не, выше писал, про openshift (-: Это к тому, что в таких случаях, мало надежды на помощь.