Artem
ceph-ansible - быстро, просто, единообразно
Вот стоит у тебя какой нибудь python2.1.x, и не будет твой ансибл работать
Pavel
А салт у нас везде, не только для цефа
Artem
Я к тому что ceph-ansible это все таки штука которая ставит и настраивает софт, а докер это готовая вещь
Mike
да мне вообще докер не упёрся с ceph. Потом ещё **ся с докером.
Artem
да мне вообще докер не упёрся с ceph. Потом ещё **ся с докером.
1. Никто не заставляет 2. Еба*ся как правило приходиться с ОСью когда она засирается всяким софтом и зависимости друг друга убивают
Михаил
нуу, вообще рекомендуется ось под цеф отдавать всю)
Anonymous
адназначна ceph-ansible
Михаил
без доп вещей
Anonymous
ну или адназначна puppet :) на выбор, кто что умеет
kiosaku
насчёт паппета: не сталкивались с тем, что паппет-агент работает, но ничего не делает?
Artem
нуу, вообще рекомендуется ось под цеф отдавать всю)
То есть вы мониторы тоже отдельными серверами держите?
Anonymous
подвисшие агенты... бывает :(
Михаил
если че
Anonymous
вот вы мне лучше скажите, есть ли возможность (для RGW) такого себе статического переноса объектов в более быстрый пул без изменения URL этого объекта для клиентов?
Anonymous
т.е. cache tiering нам не нужен, нам надо по какой-то внешней метрике схватить популярные объекты и утащить на SSD-only рут
Artem
мониторы это сущность цефа
Я собственно к тому что железо простаивает, если оно есть, а как у нас его нет =)
Anonymous
но при этом так, чтобы клиенты этого RGW ничего не заметили
Anonymous
тьфу, в запарке RBD написал :)
Mike
То есть вы мониторы тоже отдельными серверами держите?
смотря какой размер кластера. У меня был 5-ти нодовый ceph - на всех нодах по монитору запущено с данными на SSD.
Anonymous
RGW конечно))
Mike
RGW конечно))
а что тормозит? Выборка? Поиск? Или отдача объёктов?
Anonymous
Имеется в виду, что например если мы хотим отдавать горячие объекты с SSD, но управлять этим вручную, это можно как-то сделать?)
Anonymous
чтобы не городить cache tiering, который в нашем случае ничего не даст и будет даже вреден
Anonymous
Если по топику, я не вижу ничего особенно предосудительного запускать цеф в контейнере. Конфиги и данные, естественно, вне него. Контейнер - как пакетный менеджер
Mike
что значит "в ручную"? Как ты это видишь?
Anonymous
ну условно говоря хочется переместить некоторые объекты на быстрый пул, при этом клиент radosgw не должен ничего заметить
Anonymous
еще момент, у нас сейчас используются в тестах blind buckets (приложение само знает, какие объекты спрашивать). а без него - была адовая нагрузка на index pool. Есть какие-то рекомендации по развертыванию radosge для большого кол-ва объектов?
Anonymous
да никто не осуждает. пытаются понять зачем)
В кориоси небольшие проблемы с деплоем не через контейнер :) Плюс, когда у тебя вся инфраструктура на них, то почему бы и нет?
kiosaku
зачем заводить ещё одну сущность?
Михаил
хочу еще кейсов
Anonymous
кейс с кореосью я сам вчера сказал
Говорю же, когда у тебя всё на контейнерах. Можно даже на убунту коре такое сделать, хотя она с rw рутом
Mike
ну условно говоря хочется переместить некоторые объекты на быстрый пул, при этом клиент radosgw не должен ничего заметить
не думаю, что получится, т.к. в конфигурации radosgw описываются конкретные пулы. Можно играться в "placement targets", но для клиента это уже другой destination. Может поиграться с "rgw cache", но как он работает - не знаю.
Anonymous
хм:)
Anonymous
ну опять же, тупой lru не спасет, в нашем случае больше потратим трафика и иопсов на miss-ы
Anton
Уважаемые спецы по ceph. Если есть спецификация на железо к ceph - как понять на сколько форматированной емкости она расчитана?
Mike
А с nutanix, что не так?
Михаил
А с nutanix, что не так?
Обожди, не разжигай, потом почитаем
Mike
погоди, имеется ввиду RAW или Usable?
Logan
погоди, имеется ввиду RAW или Usable?
очевидно, что всегда имеется ввиду usable
Anton
Или у тебя вопрос "хочу петабайт на цефе какое железо взять?"
У меня есть спецификация на железо для ceph. Мне хочется понять сколько там usable емкости. От X TB до Y TB, в зависимости от условий 1, 2, 3
Mike
очевидно, что всегда имеется ввиду usable
ну "formated" - это не usable, обычно
Anton
СПасибо, это содержательный ответ. Какие возможны варианты?
Anton
Для новичка в ceph
Mike
забыл добавить про NearFull и Failure domain. Если уж всё учитывать и все возможные варианты жизни железа
Mike
СПасибо, это содержательный ответ. Какие возможны варианты?
Вариантов много. от дву-до пяти. Завай пример железа, кол-ва серверов,можно посчитать.
Anton
X нод по Y дисков Z TB
Logan
X нод по Y дисков Z TB
важный вопрос - репфактор
Logan
он настариваемый
Михаил
точка
Anton
он в формулу подставляется как? и каким бывает
Logan
тройная
если надо надежно - можно и 4 пставить
Logan
он в формулу подставляется как? и каким бывает
любое целое число, если коротко
Anton
(количество серверов) * (количество дисков) * (размер диска) / (реп фактор)
Михаил
X нод по Y дисков Z TB
(Z*Y*X/RepFactor)*85% это полезный объем
Logan
почему именно 85%?
Михаил
почему именно 85%?
NearFull отсечка
Mike
X нод по Y дисков Z TB
((X*Y*Z)/RF)*1-(1/X) - если для реплики, и FD - один хост.
Anton
Спасибо
Mike
это самый простой случай
Anton
Rf 3 от скольки узлов можно делать?
Mike
а какой FD?
Anton
А по русски?
Mike
Failure Domain
Anton
И что оно означает в контексте ceph?
Mike
тоже что и у вас
Anton
У нас нет такого
Anton
Или я что то неправильно понимаю