
Alexander
10.04.2017
12:56:18
проще говоря: если есть 60 метрик с хоста, но в ТС-базе будет хранится еще и имя хоста то 60 надо умножить на количество хостов, а если еще какие-то мета данные у метрик будут, то и это надо тоже учесть

Evgeny
10.04.2017
13:03:01

Dmitry
10.04.2017
13:09:00
Привет. Мы выложили в OpenSource Graphouse - компонент, который позволяет использовать ClickHouse как хранилище метрик для Графита.
Graphouse содержит:
1. TCP cервер для приема метрик
2. HTTP API для поиска метрик и получения данных (с питонячим модулем для graphite-web)
3. HTTP API для управления деревом метрик.
Лежит тут - https://github.com/yandex/graphouse
Доступны deb пакеты.
Документацию постепенно дополняем. Будем рады любым замечаниям и предложениям.

Aleksandr
10.04.2017
13:13:25
@AndreevDm а бенчмарков нет?

Google

Dmitry
10.04.2017
13:14:05

Aleksandr
10.04.2017
13:15:37
@AndreevDm а расскажите про профит который получили? вообще кликхаус впечатляет скоростью и мощью, давно хотелось его как-то для типовых метрик попробовать

Dmitry
10.04.2017
13:26:53
Профит - куда большая производительсноть (особенно на вставку) и эфективное хранение. У нас давно был кластер с виспером, он с трудом справлялся с нагрузкой. (Это было давно и цифры я сейчас не найду). Мы попробовали использовать КХ - и всё что работало на одной нескольких машинок в виспером - прекрастно завелось на одной с кх

Roman
10.04.2017
13:28:03

Александр
10.04.2017
13:28:53
ребят какое железо используете под сбор метрик, а то у меня vm нагибается.. хотя вроде не много записываю.. на запись в 3MB/s печалит как-то
Всмысле у меня идёт на graphite, вот он и кладёт vm по io
поможет ли мне кластеризация, если вывести на физ машины.. O_o

Vladimir
10.04.2017
13:33:36

Aleksandr
10.04.2017
13:33:37
@AndreevDm спасибо что поделились кодом, буду следить за репозиторием, и бенчмарки хочется поглядеть

Vladimir
10.04.2017
13:34:21
я про это в чатике кликхаусовом уже спрашивал )

Roman
10.04.2017
13:34:21

Dmitry
10.04.2017
13:34:43
У нас сейчас прилетает порядка 2.5 миллиона метрик в минуту. До недавного времени всё это жило на двух машинках (можно и на одной, но нельзя же без репликик). Сейчас пересилили на другой кластер побольше (просто в целях уменьшения количества кластеров)

Vladimir
10.04.2017
13:34:45

Google

Vladimir
10.04.2017
13:34:57
на 1 машинке слабее чем ваши )

Aleksandr
10.04.2017
13:35:13
@rlomonosov спасибо за детали, а чем визуализируете? grafana? у кого есть хорошая поддержка ClickHouse в качестве источника данных?

Vladimir
10.04.2017
13:35:33
КХ с ломиковской проксей 2.4М в секунду держит. 2.5М в минуту это не серьезно

Roman
10.04.2017
13:35:36

Vladimir
10.04.2017
13:36:13

Dmitry
10.04.2017
13:36:27

Vladimir
10.04.2017
13:36:29
это ж время опять нужно, а твоя уже работает

Roman
10.04.2017
13:37:16

Vladimir
10.04.2017
13:37:18
и в том числе с точки зрения оверхеда на чтение данных
пару лет назад

Dmitry
10.04.2017
13:39:27

Roman
10.04.2017
13:43:32

Dmitry
10.04.2017
13:49:06
Ещё немного цифр. В КХ на хранение одной точки уходит где-то 7 байт.

Vladimir
10.04.2017
13:50:03
@AndreevDm у меня в тестах на синтетике (данные сгенерированные hagger'ом) было 5.6 байт на точку, на реальных данных (копия куска продакшена) 6.4
это с учетом метаданных всяких там

Dmitry
10.04.2017
13:50:26
А сколько уникальных метрик?

Google

Dmitry
10.04.2017
13:50:59
смотря как точки хранить
у нас близко к 1 байту получилось

Dmitry
10.04.2017
13:51:29
Это в чем так?

Dmitry
10.04.2017
13:51:41
CH

Dmitry
10.04.2017
13:53:53
Конечно сильно зависит от данных. У нас имена метрик достаточно длинные. Хаггером прогоним, сравним с виспером.
Кстати, а есть какой-нибудь ман, как правильно настраивать виспер и карбон

Vladimir
10.04.2017
13:56:01

Roman
10.04.2017
14:00:32
Тоже посчитал сколько байт на точку в КХ - 6.85 получилось

Dmitry
10.04.2017
14:01:44
А период метрик какой при этом основной?

Vladimir
10.04.2017
14:01:52

Vladimir
10.04.2017
14:02:18
преобладают по 10сек и по 60 секунд

Roman
10.04.2017
14:02:41

Vladimir
10.04.2017
14:02:56
@AndreevDm
vsmirnov@graphite-2287 0:130 clickhouse-server $ wc -l /etc/clickhouse-server/config.d/graphite.xml
1753 /etc/clickhouse-server/config.d/graphite.xml

Dmitry
10.04.2017
14:03:04
У нас в проде в основном минутные

Zhenia
10.04.2017
14:05:52
Чат, а кто-то снимает промом метрики раз в секунду?
есть подводные камни?

Александр
10.04.2017
14:08:23
а 2.4 млн метрик это сколько в объеме на хдд получается?

Ivan
10.04.2017
14:08:28
У меня выборочно для AIX сервера есть, где-то 1500-2000 точек в секунду, подводные камни только одни, если сделать выборку больше чем за 5 минут из influxdb, то influx падает

Google

Ivan
10.04.2017
14:09:22
правда дашбор где-то с десяток графиков содержит, точек много получается, а сервер с influxdb всего с 6ГБ ОЗУ

Александр
10.04.2017
14:09:24
И сколько под такое кол-во Io выходит?

Ivan
10.04.2017
14:12:10
в среднем ~20 io в секунду, в общем ни очём

Vladimir
10.04.2017
14:15:12
@AndreevDm про виспер - лучше всего брать альтернативный стек, а именно github.com/lomik/go-carbon, он даже из коробки достаточно адекватен.
С ним может говорить graphite-web и carbonapi

Александр
10.04.2017
14:15:40
Там презентации нет, чем он лучше :(

Dmitry
10.04.2017
14:16:18
Кстати, а кто-нибудт может расказать делали реализации https://github.com/lomik/graphite-clickhouse ?

Vladimir
10.04.2017
14:16:26
@rlomonosov ^

Admin
ERROR: S client not available

Dmitry
10.04.2017
14:17:12
@rlomonosov собственно вопрос, как реализован поиск по глобам?

Vladimir
10.04.2017
14:18:01
и в нее складывал с глубинами разными
и поиск по ней был

Roman
10.04.2017
14:18:44
Через отдельную табличку в КХ со списком уникальных метрик. Глоб превращаются в регулярку + пара дополнительных оптимизаций: проверка префикса выносится отдельно и еще че-то такое мелкое

Dmitry
10.04.2017
14:19:10
Т.е. на каждый поиск сложного глоба - фулскан по таблице?

Roman
10.04.2017
14:19:51
Да. По отдельной маленькой replacing
ну и фулскан будет только если глоб прям начинается со свездочки :)

Dmitry
10.04.2017
14:20:43
А сколько у вас уникальных метрик?

Roman
10.04.2017
14:22:08
20 млн в табличке

Dmitry
10.04.2017
14:24:09
У нас тоже есть Replcaing табличка для списка метрик, но мы дерево метрик в памяти держим. Сначала держали всё, но когда дерево стало под 150млн, сделали загрузку в пямять только первых n уровней, а остальное дерево - on-demand загрузка с кешированием.

Google

Dmitry
10.04.2017
14:27:16
Примерно вот так работает
andreevdm@graph01gt:~$ time curl -s "http://localhost:7000/search?query=o*.D*.{l,m}*.{r,t}*.*" | wc -l
671
real 0m0.020s
user 0m0.008s
sys 0m0.000s

Roman
10.04.2017
14:29:12
Я так хотел сделать, а потом посмотрел что с нашими стандартными запросами и КХ справляется отлично. Сейчас по логам проверил - среднее время запроса на поиск - 14ms. Самая жесть 200мс (количество таких запросов в день можно по пальцам пересчитать).

Dmitry
10.04.2017
14:30:47
У нас сейчас в проде таблица с деревом - 200 миллионов. Там конечно уже много неактуаьных метрик, но как раз ondeman загрузка спасает

Roman
10.04.2017
14:38:48
Мы неактуальное чистим чтобы не отсвечивало в дереве. Но на 200 млн мое решение точно всосет. особенно если запрашивать o*.D*.{l,m}*.{r,t}*.*

Maxim
10.04.2017
14:45:31
https://prometheus.io/blog/2017/04/10/promehteus-20-sneak-peak/

Hackru
10.04.2017
14:45:56
ссусь, но почитаю
TLDR выкатили альфу с необкатанным новым стороджом, расходимся

Paul
10.04.2017
14:47:56
This version does not work with old storage data and should not replace existing production deployments ну альфа же!

Aleksandr
10.04.2017
14:55:16
Ivan а не поделитесь как вообще нынче influxdb себя ведет на больших данных в целом? стабильнее чем раньше? проблем много?

Ivan
10.04.2017
14:59:36
у меня версия 1.0 до 1.2 пока не обновил. На больших запросах на 6ГБ падает, какие именно "большие", я не скажу
8 млн точке при 6 ГБ выдавал и не падал, задержка в выдаче - секунды примерно

Dmitry
10.04.2017
15:05:53
@rlomonosov а мне кажется или у вас была имплементация ручки render со всеми функциями?

Vladimir
10.04.2017
15:06:11

Roman
10.04.2017
15:07:39

Dmitry
10.04.2017
15:10:48

Vladimir
10.04.2017
15:11:13

Dmitry
10.04.2017
15:19:00
Я пожет пропустил, а для https://github.com/lomik/carbon-clickhouse какие цифры были?

Vladimir
10.04.2017
15:19:49
примерно на этом моменте у меня нагрузка от hagger'а перестала пролезать в гигабитную сеть