Etki
я про это же
Pavel
Если репликация - хранятся полные реплики. Erasure coding это другое, его отдельно включать надо на пул
Mike
кстати EC под RBD не допилили еще ? мне тоже не очень нравится текущая эффективность хранилищ на ceph. без EC и дедупликации как-то не айс. имхо.
Эффективноть использования места зависит от того каким функционалом вы пользуетесь. Если все VM стартуют из образа или шаблона, через clone/snaphot - эффективность будет высокой. У нас в OpenStack было продано места больше чем ёмкость ceph, однако из-за CoW - у нас фактически было занято в кластере ceph не больше 12% места.
タキ
Спасибо за ответы, я пока заббиксом мониторю, и этим скриптом https://github.com/thelan/ceph-zabbix, но хочется больше инфы выводить.
Pavel
Я стараюсь за него не выходить и вообще считать опасным алармом 80-85%
Pavel
Провиженного места естественно
Pavel
Но у нас видимо характер нагрузки просто другой
Mike
Оверпровиженинг опасная штука
ели не понимать процесса. Вот ты поднимаешь VM на винде из образа. Сколько процентов будет изменённых данных?
Mike
я рассматриваю с стороны VM и облаков. Конечно при другом характере использрвания - другое поведение.
Pavel
У нас то циндер в основном
Mike
У нас то циндер в основном
И что? Помести Glance на ceph и живи счастливо.
Pavel
Я к тому, что в случае блочных устройств клиент обычно склонен выедать их очень оперативно и плотно
Pavel
В отличие от ВМ
Pavel
Что собственно я и наблюдаю
Mike
ну а cinder как используют клиенты?
🍄 Sergey
у тебя точка отказа тут - сам сервер. Тогда как при грамотном планировании failure domain, ceph может выжить при отказе, сервера/стойки/зала.
угу если выйдет 1 сервер пострадает 1 клиент или клиенты на этом 1 сервере, при этом время замены самого сервера - минут 10-30 Если выйдет из строя цеф кластер (скажите что такого не было ни разу) то постардает 100% клиентов и до суток- двое простоя (такое уже было - я слышал :))
Pavel
ну а cinder как используют клиенты?
БД, данные. В ВМ только ОС
🍄 Sergey
угу если выйдет 1 сервер пострадает 1 клиент или клиенты на этом 1 сервере, при этом время замены самого сервера - минут 10-30 Если выйдет из строя цеф кластер (скажите что такого не было ни разу) то постардает 100% клиентов и до суток- двое простоя (такое уже было - я слышал :))
А ещё если начнется востановление на цеф глобальные тормоза могут постигнуть так же всех клиентов - опять косяк. Я не противник цеф - тоже хочу его у себя под некоторые нужды поднять но пытаюсь понять как сделать эффективнее чем 50 серверов каждый внутри себя 10 рейд
Nick
ели не понимать процесса. Вот ты поднимаешь VM на винде из образа. Сколько процентов будет изменённых данных?
после первого обновления - дофига. Потому что в разные «сектора» запишется
Mike
угу если выйдет 1 сервер пострадает 1 клиент или клиенты на этом 1 сервере, при этом время замены самого сервера - минут 10-30 Если выйдет из строя цеф кластер (скажите что такого не было ни разу) то постардает 100% клиентов и до суток- двое простоя (такое уже было - я слышал :))
Если вы считаете нормальным простой клиента полчаса - тогда ок. Вам не нужны вообще никакие хранилки. Если такие варианты так же: если баг будет в прошивке контроллера и разварится массив? Как тогда? Если контроллер умрёт и данные попортит? Битая память, сервер завис, часть данных висит в памяти и не брошена на диск?
Mike
Ceph сложный и гибкий. Конечно любую систему можно сломать, сделать ошибки при проектировании, кривые руки никто не отменял тоже. Именно по этому мы делимся опытом, что бы избегать ошибок или хотя бы быстро предотрварить последствия.
Nick
а как кстати в Ceph с дедупликацией?
Konstantin
никак
Mike
В bluestore обещают
Roman
Я слабо представляю дедупликацию в ceph. Только в рамках одной ноды если только
Sergei
В bluestore обещают
а ссылка есть? непонятно, как блюстор сделает дедупликацию.
Mike
Что-то было в списках рассылок
Михаил
тоже не очень понимаю
Михаил
как реплики совместимы с дедупликацией)
Mike
как реплики совместимы с дедупликацией)
Совместими. Nutanix жеж заявляет
Михаил
Совместими. Nutanix жеж заявляет
ну у них же там своё что-то под капотом
Михаил
я просто не понимаю как
Nick
а где еще есть сжатие (lz4) и дедупликация (но не такая затратная по памяти как в zfs)?
🍄 Sergey
Если вы считаете нормальным простой клиента полчаса - тогда ок. Вам не нужны вообще никакие хранилки. Если такие варианты так же: если баг будет в прошивке контроллера и разварится массив? Как тогда? Если контроллер умрёт и данные попортит? Битая память, сервер завис, часть данных висит в памяти и не брошена на диск?
А вы считаете нормальным простой не 1 клиента, а всех клиентов и на сутки и более если цеф свалилась? тут возможно 30 минут куда более короткий срок, а если у клиента бизнес зависит от твоих серверов он может арендовать 2 сервера чтобы избежать простоя при умирвании сервера. ИМХО процент простоя из-за проблем аппаратного рейда при миллионных (если не больше) продажах аппаратных рейдов мне кажется намного ниже чем процент проглючивших систем на ceph, но это имхо так как ни той ни той статистики нет. Но в любом случае система на цеф более сложная и там допустить ошибок можно больше.
Александр
Нахуй нужны рейды аппаратные?
Александр
Покой вам только снится
l1njan
рейды аппаратные ради кеша полгигового и writeback с батарейкой
Logan
Нахуй нужны рейды аппаратные?
есть люди, которые верят в непогрешимость кода в аппаратном рейде. я не верю - я и с техподдержкой адаптека общался, и данные из запоротого хранилища спасал
🍄 Sergey
тот факт, что ceph и аппаратный raid решают совершенно разные задачи вас, я так понимаю, не смущает вообще
Не смущает потому что я знаю что делают разные задачи и что при работе с ceph теже рейды могут стоять (и не важно какие в мамке или апаратные)
🍄 Sergey
рейды аппаратные ради кеша полгигового и writeback с батарейкой
+ и плюс к этому очень удобно отправил мальчика в датацентр он приехал диск вынул новый вставил и забыл. в других случаях прийдется в операционку влезать и добавлять диск
🍄 Sergey
Если вернуться к началу вопроса - эффективности хранения - почему этого хочется - потому что если делать ceph на SSD не хочется переплачивать за кучу лишних SSD под резервирование. Ведь ssd нужен для скорости а не для хранения дублей и по факту при использовании ceph на ssd получается супер переплата по деньгам.
Logan
Я не верю глюк с адаптеками навалом прошивки обновляю постоянно вижу что у них.
сколько лет вы с ними работали и сколько разных моделей у вас было. Сказевые застали?
Logan
обновлять прошивки "навалом" я бы застремался даже в хостинге
🍄 Sergey
делал по разному в разное время ниразу ничег оне слетело именно при обновлении прошивки
Михаил
как-то живут ребята)
Михаил
с all flash ceph)
Nick
ну, я вот тоже жил себе с ipmi последние 10 лет и жил. А вчера оно умерло напрочь прямо во время реинсталла оси
Nick
без всяких прошивок
Александр
Один флейм и ничего по теме
Александр
Я конечно ничего сказать не хочу, но из всего флейма за день, 3 первых поста только по теме
🍄 Sergey
Вы поему запизделись.. то вам аппартаный рейд важен, то не важен
я не говорил что не важен -это раз. А два - у меня сейчас все на рейдах вот и думаю про цеф, но пока а) нет человека спеца б) не понятно где профит будет кроме расхода на построение первоначальной системы. г) хочется
Александр
Странные вы люди(которые приходят за цеф).. Хочу и на хуй сесть и рыбку съесть
Александр
Пойду лучше в другое место подгорать
Михаил
в цеф есть возможность работы "типо рейд 5", но пока оно не умеет работать с блочными устройствами в таком формате
Михаил
ну почему же. ждем
Михаил
просто ждём
Михаил
проект то развивается
Александр
Ну я про это и пишу.. хотя он ещё молоденький проект, возможно что ещё 3-5-7 лет и будет конфетка
Александр
А потом его купит меил.сру и его засрут
Александр
:(
Михаил
я не говорил что не важен -это раз. А два - у меня сейчас все на рейдах вот и думаю про цеф, но пока а) нет человека спеца б) не понятно где профит будет кроме расхода на построение первоначальной системы. г) хочется
собственно еще вопрос с чем вы сравниваете и на каких объемах если сравнить цеф с zfs на одном хосте, то уж лучше зфс, но если хостов 50, то корректнее сравнивать цеф с СХД мидл уровня и тут уже по костами перевес в сторону цеф даже учитывая перерасход дисков на реплики
🍄 Sergey
У меня с zfs проблема на одном сервере - около 20 тер данных и около 300 миллионов файлов и zfs тормозит при удалении так что вешаться хочется.
🍄 Sergey
сервер под бекап юзается, вот думаю под бекап использовать ceph но что будет при таких минимальных объемах как 300 миллионов файлов я не знаю
🍄 Sergey
блин, ну расходы на реплики это плата за стабильность
угу так же как и в 10 рейде двойное дублирование плата за стабильность тут всё понятно.
🍄 Sergey
Я не про один сервер я под цев сделаю 10 допустим серверов по 16 дисков - но 3 миллиарда файлов тогда как будет работать на этом ?