J
Кстати, стыдно чот. leveldb для файлстора используется. В журнале свои структуры метаданных. Ну, в общем суть не изменилась, но чувствую что исправиться нужно было)
Mark ☢️
собственно из-за этого и появился на свет блюстор
ну нет же. он это не выпрямляет никак
Mark ☢️
более того, я уверен у него с этим ещё хуже.
Mark ☢️
но он выигрывает изза других фич
Anonymous
да я не про выпряемление, Марк. Это то что сам POSIX слишком тяжел для понимания
Anonymous
выпрямление записи данных исключительно зависит от размера кэша, как на клиенте, так и на самом osd
Anonymous
но кэши не резиновые )
Mark ☢️
проблема фундаментальная что последовательные блоки с точки зрения юзера в осд будут нифига не последовательные
Mark ☢️
но это на всем скоро будет пофигу потому что SSD-only
kiosaku
кхм, а никто не поднимал _второй кластер ceph на проксмоксе в дополнение к имеющемуся?
kiosaku
т.е. есть хочется добавить ssd-only osd к имеющемуся и создать пул (или несколько) на них
J
т.е. есть хочется добавить ssd-only osd к имеющемуся и создать пул (или несколько) на них
так создай. Зачем второй кластер? Такие вещи через crush карты разруливать нужно.
kiosaku
хотел быстро ... :)
kiosaku
а-ля два volume group в lvm-е ...
Anonymous
crush map как раз быстрее будет
J
а-ля два volume group в lvm-е ...
Ну да, там ничего сложно нет, так то.
kiosaku
главное, не порушить текущий пул
Inna
https://www.sebastien-han.fr/blog/2014/08/25/ceph-mix-sata-and-ssd-within-the-same-box/
J
https://www.sebastien-han.fr/blog/2014/08/25/ceph-mix-sata-and-ssd-within-the-same-box/
Ага. Для свежих версий есть классы OSD. Вот тут про это пишется) http://docs.ceph.com/docs/master/rados/operations/crush-map/
kiosaku
да я уже посмотрел Сеню
kiosaku
осталось только понять, как корректно изменить crushmap: сначала default заменить на ssd-1 для текущей конфигурации - вроде ясно
Inna
Вообще удобно с классами, не знала, делала как в статье в разделе IV, текущий кластер не пострадал, полет нормальный)
kiosaku
а вот дальше - сначала добавить rule and root для нового пула или сначала диски добавить/инициализировать?
kiosaku
Inna, раздел 4 в http://docs.ceph.com/docs/master/rados/operations/crush-map/ ?
Inna
Нет, у Хана
Anonymous
однако очень удивительно и приятно видеть девушку в наших "краях" 😁
Inna
Сначала добавила все osd, потом в карте переставила как надо, создала второй ruleset. Когда всё готово, применила этот рулсет для нужных пулов, как-то так
J
Сначала добавила все osd, потом в карте переставила как надо, создала второй ruleset. Когда всё готово, применила этот рулсет для нужных пулов, как-то так
Да, как-то так) 1. Добавляешь контейнер\контейнеры для ssd 2. Прописываешь ssd в контейнеры 3. Пишешь правило по-которому выбираться должны только ssd 4. Применяешь правило к существующему пулу или указываешь при создании нового.
J
Проще всего, наверное, прям брать твою карту, декомпилировать, править, компилировать снова и обратно запихивать.
Евгений
обязательно отрубить автоматический анонс осд в крашмап!
Евгений
иначе будет очень весело
kiosaku
да-да
kiosaku
меня только вот какой момент смущает
Евгений
osd crush update on start = false
kiosaku
если сейчас добавить новые диски в текущую конфигурацию - начнётся rebalance
Евгений
нет же
kiosaku
разве что диски не активировать
Евгений
сначала рубите автоматический анонс
Евгений
а потом уже лезете в крашмап ручищами
kiosaku
нет
kiosaku
я не про это
J
разве что диски не активировать
Ну и не активируй. Сначала запихни их сразу в нужные контейнеры в карте, а потом активируй.
Inna
С весом 0 добавить, потом постепенно ревейтить
Евгений
без автоанонса диски не добавятся, ребаланса не будет
kiosaku
стоит proxmox+ceph
kiosaku
новые ноды уже добавлены
kiosaku
но диски на них ещё не инициализированы
Евгений
ceph osd tree что говорит?
kiosaku
вопрос в том (или-или): - сначала добавить диски (инициализировать) но в состоянии off и пусть добавит в существующий crushmap - изменить crushmap и сразу прописать два пула
kiosaku
ща
kiosaku
https://pastebin.com/BApUiZsY
Евгений
ну так вот, первым делом надо все равно автоанонс потушить
Евгений
потому что иначе оно может начать весело скачать
kiosaku
и да, после отключения анонса - рестартовать кого, ceph-osd?
Евгений
да
Евгений
тут таким вот матюком примерно ceph-deploy —overwrite-conf config push mon osd{1,2,3,4,5,6,7,8,9,10}
Евгений
это он конфиг разольет
Евгений
а сам рестарт - просто пройти и передернуть ceph-osd
Евгений
по одному передернуть
Евгений
и смотреть в osd-tee
kiosaku
ну, конфиг там один на все ноды через lxcfs
kiosaku
так-что пушить не придётся
kiosaku
уточню ещё раз, на всякий случай
kiosaku
после osd crush update on start = false
kiosaku
если я добавляю новые диски в кластер, то они автоматом не попадают в имеющийся пул?
kiosaku
+ обновляется ли crushmap при этом?
kiosaku
pveceph createosd создала диск на хосте, запустила, но в crushmap он не появился - кто виноват? добавить вручную в crushmap?
Евгений
ясное дело, что не появился, после osd crush update on start = false не будет появляться
Евгений
теперь все надо добавить руками
Евгений
device добавить, и хосты добавить
J
pveceph -_-
kiosaku
да
Михаил
ээээ
Михаил
ceph поверх LVM?
J
да
НА ПЕРЛЕ НЕБОСЬ НАПИСАНА
kiosaku
хосты добавились через ceph osd crush add-bucket