NS 🇷🇺
Создание инстансов с помощью формана
Такого не практиковал, когда мы его использовали плагинов для облаков практически не было в нем
DDR
Окей, спасибо, буду дальше искать
nikolay
доброго дня. кто то пользует(пользовал) проект kolla для раскатки сервисов опенстека в виде контейнеров?
Илья | 😶☮️🐸
На выходе получите франкенштейна без понимания как всё работает и конфигурируется
nikolay
тогда вопрос, если мне надо развернуть на одном аппаратном хосте например 4-e контейнера openstack swift object server чтобы они биндились каждый на свой порт и использовали каждый свою точку монтирования для хранения обьектов - это реально сделать с помощью кастомных конфигураций ? или только правки внутри конкретной роли, причем именно правки тасков а не только defaults/main.yml
Stanley
Окей, спасибо, буду дальше искать
А Нафига? Есть ансибл, терраформ. Зачем тащить в светлое будущее этого форемана с паппетом?
nikolay
Сделать 4 вм не устраивает ?
нет, идея в том чтобы разделить ресурсы одного аппаратного сервера между набором obj node. виртуализация - лишние накладные расходы. как вариант - можно рассмотреть openstack-ansible, оно вроде lxc использует нативно, но схема остается такой же - несколько контейнеров на разных портах..
nikolay
Если колля этого не умеет в глобалс - правка роль в своей ветке. Чего делать крайне не надо.
в глобалс как я понимаю можно задать один порт для одного сервиса, не более. править роль совсем не хочется
NS 🇷🇺
в глобалс как я понимаю можно задать один порт для одного сервиса, не более. править роль совсем не хочется
посмотрите, что принимает роль. Если там словарь с параметрами, что чаще всего бывает, то можно выставить порты
nikolay
разве что менять глобалс перед каждой новой разливкой, такой себе вариант
Илья | 😶☮️🐸
разве что менять глобалс перед каждой новой разливкой, такой себе вариант
колла не про это, имхо, а про обслуживание одной инсталляции
Stanley
в глобалс как я понимаю можно задать один порт для одного сервиса, не более. править роль совсем не хочется
Значит либо вы придумали очередное БДСМ, либо взяли не тот инструмент. Практика показывает что локальный форк коллы - это анальный зуд и страдания
nikolay
посмотрите, что принимает роль. Если там словарь с параметрами, что чаще всего бывает, то можно выставить порты
с этим разбираюсь. по сути мне надо чтобы плейбук по разливке работал в несколько итераций, принимая каждый раз новое имя контейнера, новый номер порта, новую точку монтирования и новый набор конфигов..
NS 🇷🇺
ну я вообще не уверен, что колла тут хороший вариант
nikolay
колла не про это, имхо, а про обслуживание одной инсталляции
так у меня и есть одна инсталляция) только контейнеров на одном хосте надо развернуть не 1, а несколько
nikolay
что вас удивляет?
Илья | 😶☮️🐸
поднимите руками контейнеры и просуньте конфиги руками
J
с этим разбираюсь. по сути мне надо чтобы плейбук по разливке работал в несколько итераций, принимая каждый раз новое имя контейнера, новый номер порта, новую точку монтирования и новый набор конфигов..
Вручную можешь создать привелегированные lxc\lxd контейнеры и в них раскатывать как на голое железо. А еще можно не городить эту бороду с контейнерами, а написать кастомный systemd юнит чтобы он принимал в качестве аргумента какое-нить имя object store сервера и на основе него запускался на нужном порту и точке монтирования. Жаль systemd поганый кусок дерьма и не принимает больше одного аргумента при старте юнита. lxd не советую, ибо эт netplan от мира контейнерных управляшек. Слишком модный и слишком часто ломают его.
nikolay
поднимите руками контейнеры и просуньте конфиги руками
это уже делается) хочется теперь как то пвтоматизировать ..
Stanley
вот да, проще тогда свой плейбук написать..
Лучше. Хотя я так и не понял нафига на хостах по неск контейнеров
J
это уже делается) хочется теперь как то пвтоматизировать ..
В openstack-ansible, наверное, можешь один и тот же физический сервер в openstack_user_config под разными именами использовать 4 раза.
nikolay
Лучше. Хотя я так и не понял нафига на хостах по неск контейнеров
все просто, у меня есть например 8 аппаратных хостов с кучей дисков в каждом. я хочу развернуть swift со сторадж полиси ec 12+4, как мне сделать это без виртуализации?
Stanley
Одному vxlan через ядро надо тащить, другому фореманом вм разворачивать, теперь свифт в опенстеке. Ох, а до пятницы еще далеко...
Stanley
А ты бутылку под рукой держи!
Да, да, противоинсультную, выдержанную :)
DDR
Одному vxlan через ядро надо тащить, другому фореманом вм разворачивать, теперь свифт в опенстеке. Ох, а до пятницы еще далеко...
))) так в формане удобно конфигурации хранить и состояние конфигов + помимо puppet, туда можно и ансибл роли заливать
Stanley
ПОТОМУ ЧТО СМЕРШ
nikolay
И почему?
потому что слишком мало аппаратных нод и слишком много дисков на ноду - перформанс( уже протестировали
nikolay
ну и домен отказа оч большой, вылетает одна аппаратная нода - считай цефу пиз****. он как бы живой но уйдет в себя и вернется очень не скоро
J
потому что слишком мало аппаратных нод и слишком много дисков на ноду - перформанс( уже протестировали
Куча дисков это сколько? Можно же crush правила написать такие чтоб доменом отказа был не хост, а группа дисков внутри хоста, например.
nikolay
сейчас 4 ноды, по 60 дисков на ноду.
nikolay
оасширение до 8 над может и будет, а может и нет..
nikolay
А) Красиво, по энтерпрайзу)
а то)) строим из того что есть в наличии на тек. момент...
J
а то)) строим из того что есть в наличии на тек. момент...
Так тогда вопрос) Чем лучше в такой ситуации swift 12+4?
J
По мне так еще хуже даже может выйти.
J
Вся эта еботня с портами, точками монтирования, контейнерами. Звучит как ceph с filestore)
nikolay
Так тогда вопрос) Чем лучше в такой ситуации swift 12+4?
тем что - а) я экономлю место за счет ес б) я могу потерять оду ноду из 4-х и оно будет работать, проверено. а при 8 нодах - я могу потерять целых два сервера, и оно тоже будет работать
nikolay
цепх просто уходит в перестроение и ппц.
nikolay
как ты не колдуй с краш мапами..
J
как ты не колдуй с краш мапами..
ну в цефе можешь тоже сделать ec 3+1. А если CLAY использовать, то и бэкфилл пошустрее будет. В чем отличие свифта то тут?
nikolay
ну в цефе можешь тоже сделать ec 3+1. А если CLAY использовать, то и бэкфилл пошустрее будет. В чем отличие свифта то тут?
гм.. я вроде выше написал в чем отличие)) не будем спорить, цепх в моем кейсе не вариант, изначально как раз его рассматривали
J
гм.. я вроде выше написал в чем отличие)) не будем спорить, цепх в моем кейсе не вариант, изначально как раз его рассматривали
Не написал. Экономия места за счет ec и там и там, уровень отказоустойчивости один и от же и там и там. В чем отличие то? Как по мне, твоя схема со свифтом в 4 экземпляра на каждый хост гораааааааздо хуже выглядит чем ceph на 4 жирных серверах.
J
Но как хочешь)
nikolay
перформанс) и если падает одна нода, то свифт будет обрабатывать запросы, с деградацией конешн, но будет
nikolay
а цепх просто перестает отвечать, и в зависимости от обьема записанных данных может перестать отвечать очень надолго
J
перформанс) и если падает одна нода, то свифт будет обрабатывать запросы, с деградацией конешн, но будет
И ceph будет, если min_size для пула выставишь равным количеству чанков с данными. Получится такая ж опасная схема как со свифтом. И производительность получишь похожую, возможно, если 12+4 сделаешь)
J
Разве что, swift файловый кэш будет использовать, а ceph с bluestore - нет.
nikolay
погляжу еще в сторону openstack-ansible, может с ним удобнее получится, в целом мне все равно какие контейнеры использовать - lxc или докер..
J
вот доя цепха тааая схема опасная в кавычках. а доя свифта в чем опасность?
В том же. В том что продолжается запись-чтение несмотря на то что данные хранятся без избыточности из-за того что потеряна часть дисков. В ceph остановка IO при деградации пула ниже min_size это не техническое ограничение, а защита от дурака, которую можно убрать, поставив min_size настолько низким насколько возможно.
J
Может, хотя б raid софтовый из кучи дисков и по одному свифту на сервер?)
NS 🇷🇺
ну еще можно накинуть про MiniO
nikolay
Может, хотя б raid софтовый из кучи дисков и по одному свифту на сервер?)
эм.. чем поможет софтовый рейд и почему строго по одной obj ноде на сервер, не очень понял..
nikolay
я могу изменить схему ec на 6+2 например, для 4-х аппаратных серверов она оптимальнее будет..
nikolay
но 12+4 для 8 серверов и более - имхо более выгодная. расширение когда то все таки будет)) наверно...
nikolay
ну еще можно накинуть про MiniO
можете) но не в этом чате наверное)
Stanley
цепх просто уходит в перестроение и ппц.
Что, простите? Цеф прекрасно живет на двух нодах (а если очень захотеть и на одной).
Илья | 😶☮️🐸
Хочется бросить все и получить 100мб/с из 500мб/с дисков на цефе
NS 🇷🇺
А тут живые с МТС Диджитал присутствуют? =)
Nikolay
Может начинать пользование кодлой с изучения основ ансибла? Тонко намекаю на hostvars
Stanley
охотно верю, но пусть живет где-нить в другом месте.
Вот так вот неприятие нормальных решений и приводит к мозговым вывертам, фореманам и свифтам.