J
В кэше будет все что горячее. То что недавно писалось или то что недавно читалось.
J
Ну, естественно, насколько размер кэша позволит.
Александр
А какой срок "недавно"?
Александр
Чото не вижу такого понятия тут
J
Настраивается. Секция configuring a cache tier)
Александр
Не дошёл просто
Александр
Вообще странная хуйня
Александр
ceph osd pool set {cachepool} hit_set_count 12 ceph osd pool set {cachepool} hit_set_period 14400 ceph osd pool set {cachepool} target_max_bytes 1000000000000 Я про эти настройки
Александр
Ещё и закономерности к ram есть
Александр
Только вот цифры не прописаны
Александр
На сколько увеличивается потребность в рам, когда увеличивается hit_set_count
Александр
Note The longer the period and the higher the min_read_recency_for_promote and min_write_recency_for_promote`values, the more RAM the `ceph-osd daemon consumes. In particular, when the agent is active to flush or evict cache objects, all hit_set_count HitSets are loaded into RAM - вот как хочешь так и понимай это
J
Ну а чего, нормально написано.
Александр
Что именно нормально?)
J
Все хит сеты которые готовятся слиться на ижний уровень или наоборот - читаются из нижележащего уровня будут прогоняться через оперативку.
Александр
Только не слова нет, сколько нужно этой оперативки
Александр
Вы там сами придумайте зависимости)
J
Ну а как ты хочешь чтобы считали? Только на примерах, разве что. ВСе зависит от того насколько много данных туда-сюда в конкретный вот этот раз будет гоняться.
Александр
Вот именно.
J
Ну так и в чем твоя претензия?) Что разработчики написав и так весьма подробную документацию, не дали тебе готового ответа на вопрос по второстепенной технологии?)
Александр
Если разработчик предоставляет технологию, то он должен её описать. Именно должен, а не я сам придумывать как пользоваться. Ты же ершиком не пользуешься, что б суп мешать. O_o Или монитором, что б использовать его в виде опахало.
Александр
Ладно, попробую методом тыка
Dimonyga
Несовсем корректное выражение. Не криво а " не оптимально" он работает с rbd и вполне справляется с задачами, но ждет в 10 раз больше места чем может.
Dimonyga
*ждет
Dimonyga
Дагребаныйтдевять!
Dimonyga
Жрет!
Александр
Откуда цифра х10?
Александр
Практика?
Dimonyga
Теория :-) там не *10 будет, другое число. Это я навскидку сказал.
J
Теория :-) там не *10 будет, другое число. Это я навскидку сказал.
Ну ты объясни свою теорию. Откуда лишний расход места берется?)
Dimonyga
Ну ты объясни свою теорию. Откуда лишний расход места берется?)
при обращении к блоку на виртуальном диске - в кэш залетает весь кусок на которые пилится пул. из головы вылетело как называетмя
Dimonyga
те что по 4 мегабайта.
J
Весь объект, да.
J
Продолжай)
Dimonyga
что продолжать то ? тебя из этих 4 мегабайт нужно только 512 байт ..... как бэ ......
J
А еще когда ты пишешь блок размером 4к, если он попадает в новый объект, то остатки объекта тоже нулями забиваются. И я даже с неделю назад скидывал статью где анализируют усиление записи с разными бекэндами и размерами блока на запись.
J
А еще твоя файловая система пишет в несколько раз больше чем сами данные когда ты пишешь мелкими блоками. Так что, чот теория вообще пустая. Особенно если применять к cache tiering.
Mike
А еще когда ты пишешь блок размером 4к, если он попадает в новый объект, то остатки объекта тоже нулями забиваются. И я даже с неделю назад скидывал статью где анализируют усиление записи с разными бекэндами и размерами блока на запись.
То что поднимается в cache pool весь объект, в котором находятся эти 4кб которые перезаписываешь - так и есть. Только как это влияет на размер cache пула, не понятно. На скорость работы - да.
Mike
а ты не читал, что они там в 12 версии переделали?
Читал. Но мы не обсуждаем сейчас 12-ю версию
Mike
И архитектура cache tier подвергнется изменениям. Практически на оборот
J
И архитектура cache tier подвергнется изменениям. Практически на оборот
А где почитать можно про изменения в архитектуре кэширования? Нет ссылки под рукой?
Mike
Ищи видео выступления Sage на последнем саммите openstack
J
Глянул, короче) Выглядит разумно. но хз когда сделают.
Mark ☢️
Mark ☢️
Есть мысли как правильно это сделать?
Mark ☢️
мне вот реально надо
J
А он единственный или это один из резервных?
Mark ☢️
у меня их три
Mark ☢️
но не в одновременном режиме
Mark ☢️
стендбай
Mark ☢️
как и рекомендовано Кракеном
J
Ну, эт естественно. https://www.sebastien-han.fr/blog/2012/07/04/remove-a-mds-server-from-a-ceph-cluster/
J
Вроде с тех пор ничего и не изменилось.
Mark ☢️
А ВОТ НИХУЯ
Mark ☢️
http://lists.ceph.com/pipermail/ceph-users-ceph.com/2016-July/011773.html
Mark ☢️
вот тут написано как
Mark ☢️
тоесть эти две инструкции нужны
Mark ☢️
обе.
Mark ☢️
уже удалил. успешно
Mark ☢️
себастьянная не позволит удалить пулы исползуемые под цепхфс
J
А тебе надо было? Я просто н етак понял, наверное) Думал только один сервер убрать)
Mark ☢️
нее, именно вобще цеффс выпилить. пошутили и хватит (типэ)
Mark ☢️
Да. с производительностью
Mark ☢️
оказалось, что ФС поверх RBD быстрее
Mark ☢️
возможно, надо было просто протюнить, я хз. но искаропки оно сильно медленнее, что сюрприз. ибо слоёв абстракции меньше — и должно быть быстрее
Mark ☢️
но нетъ
Mark ☢️
наверно, но понимашь, мне надо просто хранить файлы в цефе. одновременного монтирования с двух нодов не требуется
Mark ☢️
А, да. медленная на запись. на чтение не бенчил
Mark ☢️
выйдет люминоус — попробую ещё раз.
Anonymous
Парни, всем привет! Кто-нить встречался с такой ошибкой при поднитии radosgw ? 2017-07-10 17:44:30.798769 7fe21c56c700 -1 Initialization timeout, failed to initialize Заранее благодарю! 2017-07-10 17:29:30.298359 7fe22ef139c0 0 deferred set uid:gid to 167:167 (ceph:ceph) 2017-07-10 17:29:30.298431 7fe22ef139c0 0 ceph version v11.0.2 (697fe64f9f106252c49a2c4fe4d79aea29363be7), process radosgw, pid 30121 2017-07-10 17:34:30.298848 7fe21c56c700 -1 Initialization timeout, failed to initialize
Anonymous
Гхм. Парни?
Михаил
Тут один или два кракеновода(
Михаил
И у них насколько я помню rbd
Anonymous
А остальные на прошлых версиях O_o?
Михаил
Кто то даже на hammer)