Etki
я про это же
Pavel
Если репликация - хранятся полные реплики. Erasure coding это другое, его отдельно включать надо на пул
Pavel
タキ
Спасибо за ответы, я пока заббиксом мониторю, и этим скриптом https://github.com/thelan/ceph-zabbix, но хочется больше инфы выводить.
Mike
Pavel
Я стараюсь за него не выходить и вообще считать опасным алармом 80-85%
Pavel
Провиженного места естественно
Pavel
Но у нас видимо характер нагрузки просто другой
Pavel
Mike
я рассматриваю с стороны VM и облаков. Конечно при другом характере использрвания - другое поведение.
Pavel
У нас то циндер в основном
Pavel
Pavel
Я к тому, что в случае блочных устройств клиент обычно склонен выедать их очень оперативно и плотно
Pavel
В отличие от ВМ
Pavel
Что собственно я и наблюдаю
Mike
ну а cinder как используют клиенты?
Pavel
🍄 Sergey
Михаил
Михаил
Nick
Mike
Ceph сложный и гибкий. Конечно любую систему можно сломать, сделать ошибки при проектировании, кривые руки никто не отменял тоже. Именно по этому мы делимся опытом, что бы избегать ошибок или хотя бы быстро предотрварить последствия.
Nick
а как кстати в Ceph с дедупликацией?
Konstantin
никак
Mike
В bluestore обещают
Roman
Я слабо представляю дедупликацию в ceph. Только в рамках одной ноды если только
Mike
Что-то было в списках рассылок
Михаил
тоже не очень понимаю
Михаил
как реплики совместимы с дедупликацией)
Mike
Михаил
я просто не понимаю как
Nick
а где еще есть сжатие (lz4) и дедупликация (но не такая затратная по памяти как в zfs)?
Александр
Нахуй нужны рейды аппаратные?
Александр
Покой вам только снится
l1njan
рейды аппаратные ради кеша полгигового и writeback с батарейкой
Logan
Нахуй нужны рейды аппаратные?
есть люди, которые верят в непогрешимость кода в аппаратном рейде. я не верю - я и с техподдержкой адаптека общался, и данные из запоротого хранилища спасал
Logan
Александр
🍄 Sergey
Mike
🍄 Sergey
Если вернуться к началу вопроса - эффективности хранения - почему этого хочется - потому что если делать ceph на SSD не хочется переплачивать за кучу лишних SSD под резервирование. Ведь ssd нужен для скорости а не для хранения дублей и по факту при использовании ceph на ssd получается супер переплата по деньгам.
Logan
обновлять прошивки "навалом" я бы застремался даже в хостинге
🍄 Sergey
делал по разному в разное время ниразу ничег оне слетело именно при обновлении прошивки
Михаил
Михаил
как-то живут ребята)
Михаил
с all flash ceph)
Nick
ну, я вот тоже жил себе с ipmi последние 10 лет и жил. А вчера оно умерло напрочь прямо во время реинсталла оси
Nick
без всяких прошивок
Александр
Александр
Один флейм и ничего по теме
Александр
Я конечно ничего сказать не хочу, но из всего флейма за день, 3 первых поста только по теме
Александр
Странные вы люди(которые приходят за цеф).. Хочу и на хуй сесть и рыбку съесть
Михаил
Александр
Пойду лучше в другое место подгорать
Михаил
в цеф есть возможность работы "типо рейд 5", но пока оно не умеет работать с блочными устройствами в таком формате
Александр
Михаил
ну почему же. ждем
Михаил
просто ждём
Михаил
проект то развивается
Александр
Ну я про это и пишу.. хотя он ещё молоденький проект, возможно что ещё 3-5-7 лет и будет конфетка
Александр
А потом его купит меил.сру и его засрут
Александр
:(
🍄 Sergey
У меня с zfs проблема на одном сервере - около 20 тер данных и около 300 миллионов файлов и zfs тормозит при удалении так что вешаться хочется.
🍄 Sergey
сервер под бекап юзается, вот думаю под бекап использовать ceph но что будет при таких минимальных объемах как 300 миллионов файлов я не знаю
Михаил
🍄 Sergey
Я не про один сервер я под цев сделаю 10 допустим серверов по 16 дисков - но 3 миллиарда файлов тогда как будет работать на этом ?