![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
10:50:17
всмысле иопсами засрать ?
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
10:50:31
ну да
задача примерно
легаси-код.
большой-большой блоб.
отдельно от блоба индекс со смещениями.
дешево заставить его работать - это rbd
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
10:51:41
а блоб насколько большой ?
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
10:52:03
терабайты.
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
10:52:31
я так понимаю там проконкатенированы какие-то шняги в большой блоб. верно ?
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
10:52:35
типа таво
только не говори radosgw
потому что он сложится нахер
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
10:53:06
ну так а чо б не написать скрипт который раздупляет этот блоб на много мелких объектов. тогда и индекс не нужен. собсно librados и всё
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
10:53:18
ммм...
проблема такая, что на 200М объектов кластер у меня не очень уже работает.
а тут надо будет запихать 6G
rados не умеет в балки
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
10:54:35
что это ещё за балки
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
10:54:37
bulk
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
10:54:42
легче не стало
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
10:54:52
ну тяжело просто сделать 6 млрд вызовов по паре килобайт
потому что это ляжет в 6 млрд объектов в кластере
и в 18 млрд файлов
это плохо
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
10:55:29
ладно. а размеры объектов в этом блобе одинаковые ?
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
10:55:33
нет :)
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
10:55:38
а в каком диапазоне
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
10:55:41
я ж говорю - индекс со смещениями.
единицы байт - единицы килобайт
и это легаси, я не хочу переписывать.
я хочу чтобы деплой этой роли у меня занимал минуты (только код), а не часы как щас (код и данные)
поэтому данные в сторадж, к стораджу сетевой доступ. и оно работает.
страшно просто что можно кластер угандошить
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
10:57:29
а кстати. там если неравномерный доступ (некоторые части постоянно используются, а некоторые редко) то кэш тиеринг
и реад закешируется на раз два. вот пусть это кеш и ебашится
алло
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:00:46
нене, Марк, это другая задача :)
как смасштабировать или снизить нагрузку - известно.
я говорю про троттлинг и только про троттлинг
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
11:02:32
кстати вопрос блико от темы. а оператина на ноде с осд используется как кэш на чтение ? всмысле если я прочитаю то что только что записал оно закешируется? а то вроде осд при записи на XFS использует O_DIRECT а значит никакого кэша. или я не прав ?
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:02:34
можно еще конечно попатчить клиентов с чем-то типа распределенного token bucket
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
11:02:49
хотя вариант
а что. храни его в редисе — он синхронизируется сам собой между нодами кагбе.
кстати. https://trello.com/c/bRkgTcEo
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:07:31
хм, закрытая ссылка
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
11:07:32
тогда можно черезжопный тхроттлинг сделать. с некоторым гистерезисом
ты прост не зарегался
это из планов по разработке цефа
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:09:06
вах
ну теперь заживем
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
11:09:15
я сам охуел
срочно регайся в тролло
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:10:19
зойчем это
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
11:12:02
чтобэ смотреть планчеги
и курить их же
прикольно! они хотят керберос сделать вместо cephx
ГОДНОТА!
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:14:48
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:14:50
федя, ну нахуа
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
11:14:56
ну каг.
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:15:09
да понятно нахуа
но нахуа
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
11:15:22
я Вася Пупкин (тестировщик). хочу подключиться к цефу дабы создать там вертуалгу
тестировщиков в конторе 100500
ну ты понел
вот у нас у всех керберос
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:15:49
ну так легко все не получится
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
11:15:50
и я один раз пароль ввёл утром и больше не ввожу нигде
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:16:03
все равно нужен источник аутентификации и провизионер аутентификации.
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
11:16:11
ну блять. керберос.
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:16:12
ну как обычно
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
11:16:24
ну а что. sssd кагбе есть
более того. он красношляпный
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:16:44
IDM/IAM с полпинка таки не сделаешь.
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
11:16:54
так вот тут я уже не понял шта это
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:17:18
Identity Management
![](http://files.telegrammy.net/img2/t_logo.png)
Google
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
11:18:34
а ещё они панируют для iscsi сделать чтобы ядрёная часть lio данные брала через librbd в юзерспейсе. ну типэ как FUSE
потому что в в едре сильно кастрированная реализация rbd
И докером не исправляемая ибо едро тоже самое
а ещё они через цеф мгр хотят раздуплять конфиги цефа по нодам
![](http://files.telegrammy.net/img2/9/9104.jpg)
Sergey
21.01.2017
11:26:58
а потом напишут свое ядро
![](/img/link.jpg)
![](http://files.telegrammy.net/img2/9/9098.jpg)
Марк ☢
21.01.2017
11:27:10
но это же не поцтеринг
а потом напишут свое ядро
https://eventql.io оно кластерное и умеет быстро с минимальным ио делать всякое. Это я про твои блобы. И там хттп апи.
Мы пробовали кликхаус. На 9 гб бд запросы с гроупбай и фильтром сортировкой делались за микросекунды
Как блджад. Не представляю.
Я к тому что очевидно что оно не читает стока данных скока постгрес скажем. Иначе бы не получилось так быстро. Это еще один способ так сказать понизить ио
https://www.sebastien-han.fr/blog/2014/10/10/ceph-how-to-test-if-your-ssd-is-suitable-as-a-journal-device/
Заебали со своими кэшами кешей которые кеширует кеш кеша
В итоге наебалово и хер проссышь что же ты купил и как оно поведет себя под нагрузкой. Ибо кеш -- это лишь защита от пиковой нагрузке. Как грится можно ссать в штаны. Сначала будет тепло. А потом всеравно холодно.
http://lists.ceph.com/pipermail/ceph-users-ceph.com/2013-November/035695.html
Поэтому чтобы не терять данные надо брать ссд без конденсаторов. У которых честный флуш. Например, которые nvme. Там просто некуда всунуть кондеры. Плату то видно.
А в блюсторе уже не получится по сути использовать журнал как кэш на запись. Придется приклеивать bcache, enhanceio или dm-cache. И это печаль.
![](/img/link.jpg)
![](http://files.telegrammy.net/img2/75/75995.jpg)
Arpit
22.01.2017
16:46:25
https://t.me/joinchat/AAAAAED7TEn6UZ3QN-wsJQ
![](http://files.telegrammy.net/img2/51/51576.jpg)
Радик
23.01.2017
06:07:34
Привет всем, уважаемые коллеги!