Alex
А в чем выражается "так себе". В доке не натыкался
Alex
Интересует режим чтения-записи
Pavel
Known Bad Workloads
The following configurations are known to work poorly with cache tiering.
RBD with replicated cache and erasure-coded base:
Mike
Pavel
http://docs.ceph.com/docs/master/rados/operations/cache-tiering/
Pavel
RBD with replicated cache and base: RBD with a replicated base tier does better than when the base is erasure coded, but it is still highly dependent on the amount of skew in the workload, and very difficult to validate. The user will need to have a good understanding of their workload and will need to tune the cache tiering parameters carefully.
Alex
Pavel
Mike
Проблема в том, как работает cache tier. Хорошо, что используется bloom фильтр, но вот реализация evict/flush - печальная
Mike
функционал будут переделывать
Alex
Alex
А погонять пока железа нет свободного.
Mike
ну вот у тебя по дефолту размер объекта - 4Mb. Ты записываешь 1Кб данных, а ceph поднимает из холодного пула в горячий - полностью весь объёкт, т.е. 4Мб
Mike
в этом и основная проблема. Операции evict/flush убивают производительность.
Alex
Так он и без кэша так делает, или я не прав?
Mike
нет
Alex
Хм
Alex
А какой тогда механизм при работе с обычным пулом rbd?
Alex
Logan
Михаил
Тут были кто делал all flash и доклад их был
Alex
Не не не. Вариант когда предлагают на один ssd поставить 5 osd. И на каждой ноде по такому принципу разбить 2 и более ssd меня не устраивает. Вариант вылета целой ноды при таком конфиге не радует
Logan
Alex
Logan
да. Если вам действительно никак не получается сделать нормально all-flash - хотя бы журнал под SSD.
Logan
главное nobarrier туда не ставить. Это будет эпичный выстрел в ногу
Alex
Так у нас и так пул с виртуалками на ssd только. Я hdd пул хотел ускорить, с которого нарезаются доп диски для не критичных по iops данных. А вот по месту там нужно много.
Alex
Тут больше спортивного интереса.
Dorian
Все таки
Что то ещё на OSD ноде можно запускать?
Dorian
Систему мониторинга, например которая с этим же кластером работает?
Dimonyga
Расскажу свой небольшой опыт по SSD + HDD для RBD: много всего пробовали, в итоге самой быстрой конфигурацией оказалось запуск ОСД на Flashcache. Очень хотелось поиграться с кэш пулами, но увы, для RBD оно работает не так хорошо как хотелось бы. Особенно под базами данных и подобным. В итоге юзаем RAID10 под пулы для mission critical, HDD + SSD + Flashcache под базы данных (нужнал находится якобы на HDD, но весь живет в кэше на SSD) и простые HDD + jerasure под большие хранилища.
Dorian
Насколько дурацкая идея в sds в разных DC?
Dorian
ДЦ почти рядом
Dimonyga
ДЦ почти рядом можно маршрутизировать и через 9000км. Всё в этом дело.
Dorian
Как оно себя будет вести, если латенси будет разная между нодами?
Mike
К тому же можно попробовать поднять mirror с async синхронизацией
Dorian
И два радоса?
Mike
Dorian
Чтобы каждая площадка со своим говорила
Stanislav
А что будет при развале канала? В чью сторону фенсить?
Mike
Можно в этом направлении копать: http://docs.ceph.com/docs/master/rbd/rbd-mirroring/
Dorian
Это по сути HA
Mike
Если один кластер резнесен на два цод-а, с failure domain = DC. Отвалится половина кластера.
Mike
Dorian
Распределенную хранилку с разными точками мотирования.
Mike
Можно так, риски только посчитайте, карту отказов смоделируйте.
Dorian
Я правильно понимаю что вся сеть будет работать на латенси самой медленной ноды?
Mike
Да, в общем случае
Dorian
Starting with version 9.0, DRBD has an auto-promote feature. That allows you arbitrarily use other cluster managers that are able to mount a file system on a shared storage device.
До чего дошёл прогресс
Dimonyga
Если нод планируется 2-е то лучше DRBD. под Ceph надо по доке от 3-х/, а в реальности желательно от 5-ти.
Dorian
Это да...
Как бы не пришлось опять Hadoop ставить
Dorian
Чёт наши полюбили OpenTSDB
Михаил
Dorian
А как две площадки соединять в коментах её сказали?
Михаил
Dorian
http://www.slideshare.net/Hadoop_Summit/selective-data-replication-with-geographically-distributed-hadoop?from_m_app=android
Dorian
Не про цеф конечно
Valentin
У нас между двумя оптика на 40 гбит
Valentin
Отдельная для цефа
Михаил
https://www.youtube.com/watch?v=bbPO3Qb7gzA
как 50 минут рассказывать ниочем
можно смотреть с 25 минуты где-то, если хочется.
Dorian
Dorian
Как переживает отвал кабеля?
Dorian
Репетировали?
Valentin
Пока нет, собираем только
Valentin
Недавно вторую точку добавили
Valentin
Идея в том чтобы они независимо работали
Dorian
Эм...
Valentin
То есть пулы находятся в разных точках географических
Valentin
Не знаю даже как пояснить
Dorian
Ну вы их между собой не реплицируете?
Valentin
Нет
Dorian
Ну тогда не наш кейс :(
Valentin
может после тестов попробуем реплицировать
Михаил
Так, а кто-нибудь про SPDK может рассказать?
Михаил
только без корейских презентаций
Михаил
если я правильно понял, то это только для bluestore поддерживается