Mark ☢️
ага. выглядит как рхел, пахнет как рхел...
Mike
Т.е. по твоему ceph так и пилят под Ubuntu? Вот что миллион Шаттлворда делает!
Gleb
да он вообще забавный кадр
Mark ☢️
так было раньше. Заметь, там доебан и убунта в списке систем на которых они тестировали
Gleb
цеф просто пилят. не под што
конечно, именно так
Mark ☢️
http://xrootd.org/
Mark ☢️
што это такое ?
Mark ☢️
That is beyond the scope of the library as this can be achieved by having the library accessed via a gateway: for example EOS or XRootD check the permissions on their own already but can use libradosfs for the storage backend.
Mark ☢️
Thus, libradosfs should not be mistaken for CephFS.
Mark ☢️
So, to summarize its definition: libradosfs is a client-side implementation of a filesystem using RADOS, designed to provide a scale-out namespace and optimized directory/file access without strict POSIX semantics.
Mark ☢️
http://www.joaquimrocha.com/tag/cephfs/ кароч
Mentat
У меня тут тупой вопрос, а скорость чтения/записи кластера вообще скалируется от числа osd? И как примерно, если да, ссылки тоже подойдут, спасибо.
M
парни тупой вопрос connect protocol feature mismatch, my fffffffffff < peer 10fffefdfffff missing 1000000000000 , раньше помогало ceph osd crush tunables hammer , сейчас что-то не хочет, ядра новые 4.9.24-coreos , `
M
osd crush show-tunables { "choose_local_tries": 0, "choose_local_fallback_tries": 0, "choose_total_tries": 50, "chooseleaf_descend_once": 1, "chooseleaf_vary_r": 1, "chooseleaf_stable": 0, "straw_calc_version": 1, "allowed_bucket_algs": 54, "profile": "hammer", "optimal_tunables": 0, "legacy_tunables": 0, "minimum_required_version": "hammer", "require_feature_tunables": 1, "require_feature_tunables2": 1, "has_v2_rules": 0, "require_feature_tunables3": 1, "has_v3_rules": 0, "has_v4_buckets": 1, "require_feature_tunables5": 0, "has_v5_rules": 0 }
M
куда копать?
M
ceph -v ceph version 10.2.2 (45107e21c568dd033c2f0a3107dec8f0b0e58374)
M
кажется нашел причину , а как сделать minimum_required_version = firefly ?
Mark ☢️
А если в среднем по больнице?
Ну если релистично — то с ростом количества осд количество иопсов возможных возрастает. Но наибольшая выгода от паралеллизма. Цеф каг-бы сам по себе не ускоряет доступ. но зато может параллельно много операций дать. если же к цефу подключена одна виртуалка, то рандомные ио с неё тоже скейлится но не очень, ибо софтина и едро (фс) обычно не особо рассчитывают на параллеллизм хранилища. как-то так
Mark ☢️
Кароч, сегодня перевёл 120 гигов с rbd + xfs в нём + kernel mount на CephFS
Mark ☢️
Результаты печальные
Mark ☢️
всё стало хуже. откатываю
Mark ☢️
цеффс кароч либо я не умею готовить, либо он реально отстой.
Mark ☢️
@SinTeZoiD
Mark ☢️
но если в рбд своя фс (типа как у меня) - а в ней свой журнал — это ж двойные синки. запись должна быть медленнее
Mark ☢️
в итоге кароч, она не просто медленнее — а конкретно так медленнее
kiosaku
а смысл переводить?
kiosaku
меня xfs поверх rbd вполне устраивает
Mark ☢️
а меня нет. не хочу экспандить образ по необходимости. ну и в теории (где пони какают радугой) цеффс должен быть быстрее типа потому что меньше слоёв
Sergey
еще и за журнала который постоянно переписывает через себя весь поток входящих данных, оно еще и не бюджетно выходит
kiosaku
хм, но вроде как за полгода wearout 0%
Sergey
просто ною
Mark ☢️
просто ною
@complain_bot
Mark ☢️
https://www.sebastien-han.fr/blog/2015/01/26/ceph-and-krbd-discard/
Mark ☢️
This feature was added into the Kernel 3.18.
Mark ☢️
Debian 8: Kernel 3.16
Mark ☢️
Mark ☢️
вот ещё одна причина перехода на CephFS
Mark ☢️
Александр
вот ещё одна причина перехода на CephFS
А ты под что вообще делаешь, а то я пропустил чото
Mark ☢️
репозиторий RPM-пакетов
Александр
репо на цеф? Я правильно понял?
Gleb
репозиторий RPM-пакетов
Откуда у тебя рпм?
Mark ☢️
сам собираю.
Mark ☢️
у нас их много
Mark ☢️
Ну там не только репка. А еще и виртуалок штук 15-20 не помню
Mike
Mark ☢️
Зачем?
Ёпрст. А где хранить ? Удобно.
Mike
Епрст, что хранить?
Mark ☢️
Епрст, что хранить?
Ёпрст. 120 гигов рпм-файлов. И при сборке их обновлять вместе с ёпрст их метаданными
Mark ☢️
По кусочкам обновлять
Mike
Ты делаешь своё репо с ceph, зачем?
Mark ☢️
Mark ☢️
Не с цефом же. А с нашим самописным софтом
Mark ☢️
По рбд подмонтирован диск с xfs. А на нем 120 гигов файлов. Чо сложного то
Mike
Думал ты репо ceph делаешь
Mark ☢️
Нутак и вот. Заменил на цеффс. Стало сильно хуже. Вернул взад. Крякен.
Gleb
Короче цеф игрушечный
Mark ☢️
Короче цеф игрушечный
Ну да. маленький.
Mark ☢️
3 нода, 10 осд
Старый
10 осд на ноду или всего?
Mark ☢️
Gleb
я жду кого-нибудь с болью которая как миниум такого же размера как у меня
Ilya
Коллеги, ищем докладчиков на митап: https://www.meetup.com/OpenStack-Russia/events/240178502/
Ilya
Кто готов?
Mike
Мне рассказывать нечего
Gleb
а я просто бы объявил минуту молчания
Евгений
а я просто бы объявил минуту молчания
Формочку по случаю Б.О.Л.И. заполнили?
Gleb
а дайте ссылку
Евгений
а дайте ссылку
http://www.awsm.com/img/2010/butthurt.jpg
Gleb
нужно срочно распечатать
Евгений
нужно срочно распечатать
кинете ссылку на то, что у вас там померло?
Gleb
ну оно не померло, оно просто болит