Mark ☢️
ага. выглядит как рхел, пахнет как рхел...
Mike
Т.е. по твоему ceph так и пилят под Ubuntu? Вот что миллион Шаттлворда делает!
Gleb
да он вообще забавный кадр
Mark ☢️
Mark ☢️
так было раньше. Заметь, там доебан и убунта в списке систем на которых они тестировали
Stanislav
Gleb
Mike
Mark ☢️
http://xrootd.org/
Mark ☢️
што это такое ?
Mark ☢️
That is beyond the scope of the library as this can be achieved by having the library accessed via a gateway: for example EOS or XRootD check the permissions on their own already but can use libradosfs for the storage backend.
Mark ☢️
Thus, libradosfs should not be mistaken for CephFS.
Mark ☢️
So, to summarize its definition: libradosfs is a client-side implementation of a filesystem using RADOS, designed to provide a scale-out namespace and optimized directory/file access without strict POSIX semantics.
Mark ☢️
http://www.joaquimrocha.com/tag/cephfs/ кароч
Mentat
У меня тут тупой вопрос, а скорость чтения/записи кластера вообще скалируется от числа osd? И как примерно, если да, ссылки тоже подойдут, спасибо.
Mark ☢️
M
парни тупой вопрос
connect protocol feature mismatch, my fffffffffff < peer 10fffefdfffff missing 1000000000000
, раньше помогало
ceph osd crush tunables hammer
, сейчас что-то не хочет, ядра новые
4.9.24-coreos
, `
M
osd crush show-tunables
{
"choose_local_tries": 0,
"choose_local_fallback_tries": 0,
"choose_total_tries": 50,
"chooseleaf_descend_once": 1,
"chooseleaf_vary_r": 1,
"chooseleaf_stable": 0,
"straw_calc_version": 1,
"allowed_bucket_algs": 54,
"profile": "hammer",
"optimal_tunables": 0,
"legacy_tunables": 0,
"minimum_required_version": "hammer",
"require_feature_tunables": 1,
"require_feature_tunables2": 1,
"has_v2_rules": 0,
"require_feature_tunables3": 1,
"has_v3_rules": 0,
"has_v4_buckets": 1,
"require_feature_tunables5": 0,
"has_v5_rules": 0
}
M
куда копать?
M
ceph -v
ceph version 10.2.2 (45107e21c568dd033c2f0a3107dec8f0b0e58374)
Mentat
M
кажется нашел причину , а как сделать minimum_required_version = firefly ?
Mark ☢️
А если в среднем по больнице?
Ну если релистично — то с ростом количества осд количество иопсов возможных возрастает. Но наибольшая выгода от паралеллизма. Цеф каг-бы сам по себе не ускоряет доступ. но зато может параллельно много операций дать. если же к цефу подключена одна виртуалка, то рандомные ио с неё тоже скейлится но не очень, ибо софтина и едро (фс) обычно не особо рассчитывают на параллеллизм хранилища. как-то так
Mark ☢️
Кароч, сегодня перевёл 120 гигов с rbd + xfs в нём + kernel mount на CephFS
Mark ☢️
Результаты печальные
Mark ☢️
всё стало хуже. откатываю
Mark ☢️
цеффс кароч либо я не умею готовить, либо он реально отстой.
Mark ☢️
@SinTeZoiD
Михаил
Mark ☢️
но если в рбд своя фс (типа как у меня) - а в ней свой журнал — это ж двойные синки. запись должна быть медленнее
Mark ☢️
в итоге кароч, она не просто медленнее — а конкретно так медленнее
kiosaku
а смысл переводить?
kiosaku
меня xfs поверх rbd вполне устраивает
Mark ☢️
а меня нет. не хочу экспандить образ по необходимости. ну и в теории (где пони какают радугой) цеффс должен быть быстрее типа потому что меньше слоёв
Sergey
еще и за журнала который постоянно переписывает через себя весь поток входящих данных, оно еще и не бюджетно выходит
kiosaku
хм, но вроде как за полгода wearout 0%
Mark ☢️
Sergey
просто ною
Mark ☢️
Mark ☢️
https://www.sebastien-han.fr/blog/2015/01/26/ceph-and-krbd-discard/
Mark ☢️
This feature was added into the Kernel 3.18.
Mark ☢️
Debian 8: Kernel 3.16
Mark ☢️
Mark ☢️
вот ещё одна причина перехода на CephFS
Mark ☢️
Mark ☢️
репозиторий RPM-пакетов
Александр
репо на цеф? Я правильно понял?
Gleb
Mark ☢️
сам собираю.
Mark ☢️
у нас их много
Mark ☢️
Mark ☢️
Ну там не только репка. А еще и виртуалок штук 15-20 не помню
Mike
Mark ☢️
Зачем?
Ёпрст. А где хранить ? Удобно.
Mike
Епрст, что хранить?
Mark ☢️
Епрст, что хранить?
Ёпрст. 120 гигов рпм-файлов. И при сборке их обновлять вместе с ёпрст их метаданными
Mark ☢️
По кусочкам обновлять
Mike
Ты делаешь своё репо с ceph, зачем?
Mark ☢️
Mark ☢️
Не с цефом же. А с нашим самописным софтом
Mark ☢️
По рбд подмонтирован диск с xfs. А на нем 120 гигов файлов. Чо сложного то
Mike
Думал ты репо ceph делаешь
Mark ☢️
Нутак и вот. Заменил на цеффс. Стало сильно хуже. Вернул взад. Крякен.
Gleb
Короче цеф игрушечный
Mark ☢️
Mark ☢️
3 нода, 10 осд
Старый
10 осд на ноду или всего?
Mark ☢️
Gleb
я жду кого-нибудь с болью которая как миниум такого же размера как у меня
Ilya
Коллеги, ищем докладчиков на митап: https://www.meetup.com/OpenStack-Russia/events/240178502/
Ilya
Кто готов?
Mike
Мне рассказывать нечего
Gleb
а я просто бы объявил минуту молчания
Gleb
а дайте ссылку
Gleb
нужно срочно распечатать
Gleb
ну оно не померло, оно просто болит