
Alexander
25.01.2018
22:24:14

Artyom
26.01.2018
09:48:06
Есть вопрос про ELK, в частности про Logstash. Пытаюсь прицепить сертификат, с ключом, а он мне в ответ:
Looks like you either have a bad certificate, an invalid key or your private key was not in PKCS8 format.
Ключ генерировал через easy-rsa (./build-key client). Пробовал сконвертировать, не помогло
openssl pkcs8 -topk8 -in client.key -out client_key.pkcs8
Как побороть?
Помнится, в прошлый раз как-то конвертировал, но команду протерял

Vladimir
26.01.2018
09:50:00
https://t.me/elasticsearch_ru

Andor
26.01.2018
09:50:05
про эластики есть отдельный канал, тут про метрики обычно

Google

Artyom
26.01.2018
09:52:47
благодарю

Роман
26.01.2018
10:33:49
Я правильно понимаю, telegraf умеет собирать с ноды какие-то значения (в том числе выполнять самописные скрипты для сбора данных) и записывать их в какой-то эндпоинт, а потом можно из этого эндпоинта собирать метрики прометеусом?

Navern
26.01.2018
10:34:14
Так можно

Роман
26.01.2018
10:34:43
Неплохо!

Sergey
26.01.2018
10:36:54
Ну и есть шанс что КХ вообще перестанет успевать это все мерджить
тут вопрос количества этих данных и размера дисков :)
у меня вот 1 день - примерно 16ГБ с партиционированием по дням, а если партиционирование помесячное - 350ГБ на партицию (т.е. где то 1.5 раза лучше компрессия).
Оптимайз на подневном разбиении отрабатывает минут 30, на помесячном не запускал в тестах (тупо места не хватало) - есть подозрение что дольше(интересно на сколько)
и кстати да, оптимайз одной партиции кушает только один проц

Roman
26.01.2018
10:42:21

Sergey
26.01.2018
10:42:59
не ну партиционировать по именам метрики это совсем уход от столбцовой парадигмы
если что то прилетит в 1 день - можно ж это на любом стенде снапшотнуть себе отфильтровать и залить обратно (если прям ну вообще что то нереально жирное прилетело, а не +1% метрик)
и там вводная была вроде про дни, это потом еще более кастомные разбиения в идеях пошли

Roman
26.01.2018
11:07:58
с днями единственная проблема - запросы, охватывающие несколько дней (например, график за последний месяц), будут селектиться медленнее

Alexander
26.01.2018
14:58:59
Резюмируя вышесказанное - оптимальным разбиением для графита будет партицирование по неделям еслиданных не очень много но периодически хочется подчищать

Google

Alexander
26.01.2018
15:00:23
и по дням если совсем много данных -но этот вариант проигрывает с точки зрения компрессии и скорости селекта по диапазонам включающим большое кол-во партиций

Evgeny
26.01.2018
15:11:18
Много или мало у всех по разному эти понятия ;) сколько в гигабайтах?

Alexander
26.01.2018
15:24:30
ну скажем 1 тб это уже много
а вообще по моему опыту плохо когда в 1 партиции больше 100 гб
почти в любой бд
а в реляционных и того меньше

Старый
27.01.2018
18:24:06

Aleksandr
27.01.2018
19:31:34
повесить надо таких архитекторов бд прям посреди офиса

Sergey
27.01.2018
19:32:43

Старый
27.01.2018
19:33:00

Алексей
27.01.2018
19:33:02
sqlite очевидно

Bogdan (SirEdvin)
27.01.2018
19:33:38
Интересно, уже кто-то пробовал Promhouse?)

Старый
27.01.2018
19:34:12

Алексей
27.01.2018
19:40:33

Bogdan (SirEdvin)
27.01.2018
19:53:06
Вроде рано, но может уже кто рискнул)

отделение
27.01.2018
22:44:51
Интересно, уже кто-то пробовал Promhouse?)
после того, как прометеус загнулся на отсылке 60–80к (точно не помню) точек в секунду в адаптер для timescale, я ещё энное количество версий вообще остерегался бы использования remote write с чем угодно, хоть даже с пронхаусом
(может, он загибается ещё раньше, я хз, я просто взял конфиг и включил в нём remote write, когда попутно тестировал 2.0)

Bogdan (SirEdvin)
27.01.2018
22:47:39
Может TimeScale багнул или что-то с ним пошло не так?

отделение
27.01.2018
22:50:12
я не исключаю медлительности/бажности timescale, но это не круто, когда пром из-за записи куда-либо начинает плодить соединения огромными пачками, затем натыкается на лимит в количество дескрипторов и мрёт весь целиком
как минимум я бы подождал телодвижений в https://github.com/prometheus/prometheus/issues/2972

Google

Bogdan (SirEdvin)
27.01.2018
22:58:12
Надо смотреть, мне кажется, что может timeslace слишком долго принимал коннект, а у prometheus, как я понимаю, нет никакого bulk remote write, хотя могу быть неправ.
Хотя Civiloid вроде говорил, что у них тестили Prometheus + Clickhouse и оно нормально работало. Может я что-то перепутал.

Alexander
28.01.2018
04:12:25

Старый
28.01.2018
06:37:46

Vladimir
28.01.2018
18:17:56

Denys ??
28.01.2018
19:52:38
бей спамера!
О, там еще и человек сидит. Однако.

Dmitry
28.01.2018
19:58:57

Denys ??
28.01.2018
19:59:37
Не, врядли до такой степени.

Nazar
28.01.2018
20:02:13
Парни, подскажите, почему графана не понимает регесп в таком формате
metrica_name{domain=“/(.*)/“}

Vladimir
28.01.2018
20:05:34
@Golosovaniedoroga это спам потому что ты даже не спросил разрешения. Так что бан с репортом.

Andor
28.01.2018
21:48:30

Paul
28.01.2018
22:06:43

Nazar
29.01.2018
00:57:14

Sergey
29.01.2018
09:34:45
а с Авито у нас тут товарищи не присутсвуют?
интересно что их остановило от мерджа graphite-clickhouse в основную репу

Lesha
29.01.2018
09:35:15

Sergey
29.01.2018
09:35:38
я эту фразу видел в декабре на хабре :)

Lesha
29.01.2018
09:35:57
а много у них там нового?)

Admin
ERROR: S client not available

Roman
29.01.2018
09:36:23
я виноват, а не они. я там начал рефакторинг и их изменения мне мешали. и так и не доделал рефакторинг пока

Sergey
29.01.2018
09:36:25
фильтрация дерева по дате

Google

Lesha
29.01.2018
09:36:44
@korservick Я так понимаю вы поднимаете по похожей схеме с кликхаусом?
или уже?

Sergey
29.01.2018
09:37:53
ну у меня регулярные метрики на 99.99% но вот как только скажу что можно короткоживущие... пока хз насколько это даст просадку

Lesha
29.01.2018
09:38:11
А есть готовые докер образы graphite-clickhouse и carbon-clickhouse?

Sergey
29.01.2018
09:38:41
у меня есть :)

Lesha
29.01.2018
09:39:16
у меня есть :)
а не хочешь залить на гитхаб? я бы помог допилить есличо
просто я начал тоже делать и решил узнать, может кто-то уже

Sergey
29.01.2018
09:42:51
они некрасивые (конфиги заточены конкретно под нас). И вот у меня есть полунавязчивая идея выпилить carbon-CH совсем и перейти на material view CH из кафки... (ничего особо против carbon-CH не имею кроме того что если что то идет не так начинаются ручной откат очередей в кафке, да и место он мнгновенно откушивает при любой ошибке в работе CH)
т.е. у меня модель закачки в КХ не пуш а пулл
надеюсь сегодня дособеру тест и погоняю

Lesha
29.01.2018
09:44:06
ну ладнооооо, сам соберу и вылью =Р

Sergey
29.01.2018
09:45:33
так проблем в сборке докер образов этих компонент нет никаких - это 1 бинарник, конфиг подсунуть и все (ну и желательно под carbon выделить персистент волум)

Lesha
29.01.2018
09:45:59
ну что бы по красоте, нужно собирать внутри контейнера сразу
что бы свежак напрямую с репы тянуть

Sergey
29.01.2018
09:46:18
оно пока в тесте - как соберу устойчивое решение - залью

Vladimir
29.01.2018
10:01:27
я кстати не помню, но кажется оно так и делает даже

Sergey
29.01.2018
10:01:44
значит половина работы сделана :)

Vladimir
29.01.2018
10:02:04
а не, там тока uuid запроса

Google

Sergey
29.01.2018
10:02:04
а графана передает это поле в запросе?

Vladimir
29.01.2018
10:02:07
но юзера добавить легко

Sergey
29.01.2018
10:02:10
вотъ

Vladimir
29.01.2018
10:02:11
@korservick https://github.com/go-graphite/carbonapi/blob/master/util/util.go