
Vladimir
08.12.2016
18:00:34

Alexey
08.12.2016
18:00:48
солидно

Vladimir
08.12.2016
18:00:50
и под 200 с учетом (4х кратная)

Google

Alexey
08.12.2016
18:01:01
ух...

Vladimir
08.12.2016
18:01:10
соответственно на бэкэнд сумарно выходит 8 с лишним млн уже

Alexey
08.12.2016
18:01:26
чтож такое вы там мониторите...

Vladimir
08.12.2016
18:01:36
а фишка в том что в тесте кликхаус 2.4млн в секунду на 1 сервер может переварить и упирается в сеть

Let Eat
08.12.2016
18:01:38

Vladimir
08.12.2016
18:01:48
http://events.linuxfoundation.org/sites/events/files/slides/booking-graphite-atscale-linuxconeur2k16.pdf

Alexey
08.12.2016
18:02:20
а вот это все как аркиструется при горизонтальном масштабировании?

Vladimir
08.12.2016
18:02:28

Alexey
08.12.2016
18:02:40
крутая у вас задница
видать железобетонная

Vladimir
08.12.2016
18:02:47
до недавнего времени - берем машин больше чем нужно и переносим данные скриптом на баше )
через неделю выключаем старый кластер

Google

Alexey
08.12.2016
18:03:05
в общем я под впечатлением...

Vladimir
08.12.2016
18:03:06
сейчас через bucky tools переносятся только новые метрики на новые сервера
склеивание ответов - carbonzipper наш (см презенташку вверху)
просто оно по пределу масштабирования наверное в 3-4 раза вырасти еще может
потом сдохнет

Let Eat
08.12.2016
18:03:48

Vladimir
08.12.2016
18:03:52
а кликхаус может на 1 сервер все метрики вписать
то есть мы читали то что успело записаться на диск
диски хоть и ссд но ограничены чем-то в районе 50к иопсов на запись
даже если потюнить кэши и пр., все равно не очень весело

Let Eat
08.12.2016
18:04:56
читать из пейджкэша тоже ж можно

Vladimir
08.12.2016
18:05:03
можно, но сложнее
тюнить много
если сервер упал - больше восстанавливать

Let Eat
08.12.2016
18:05:42
go-carbon вот прям сейчас на убогий raid5 пишут 2М/минуту на ноду с тюнингом описаным выше и нагрузки ноль, одно ядро занято чуток

Vladimir
08.12.2016
18:06:11
@rossmohax там проблема в том что примерно с 2013 по 2015 год никто графитом не занимался на фултайме, периодически бывали хакатоны и народ что-то подкручивал
в 2015 году один человек на фултайме его попиливал
и другой периодически советами помогал

Google

Vladimir
08.12.2016
18:07:47
а с 2016 стала полноценная команда, но изначальный автор половины кода ушел заниматься другим

Let Eat
08.12.2016
18:07:58
ну заводить КХ под это дело радикальный вариант :)

Vladimir
08.12.2016
18:07:59
так что оно только сейчас начало развиваться систематически, а не стихийно

Let Eat
08.12.2016
18:08:33
но интересный, опишите потом опыт :)

Vladimir
08.12.2016
18:08:37
и можно посмотреть чем бы компактнее хранить данные, веселее делать аналитику и т.п.
тем более вот тут @rlomonosov запилил клевые прокси из графита в кликхаус и из кликхауса в графит
одну софтину которая совместима с нашим стэком и умеет спрашивать кликхаус и другую софтину которая line protocol принимает и пишет и делает это быстро

Alexey
08.12.2016
18:09:34
но предупреждали, что там не все так радужно

Let Eat
08.12.2016
18:09:46
поидее если писать в память, то не вижу почему оно не может выжимать миллионы в секунду, все упрется в page cache

Vladimir
08.12.2016
18:09:50
надежность падает пропорционально
carbon-cache умрет быстро
go-carbon умрет позже, но тоже умрет в какой-то момент

Alexey
08.12.2016
18:10:34
если честно, мне подход к организации метрик в стиле graphite после openTSDB и Ko, как-то не очень приживается

Let Eat
08.12.2016
18:10:43
нее, я про go-carbon конечно. нет не умрет, у него в памяти ничего висеть не будет

Vladimir
08.12.2016
18:10:49

Alexey
08.12.2016
18:11:02
я вот думаю, что более прогрессивно было бы попробовать на CH что-то более нативное сделать
я не про сам openTSDB

Google

Let Eat
08.12.2016
18:11:11
расход памятьи- 1кб/метрику независимо от количества обновлений

Vladimir
08.12.2016
18:11:20
синтаксис только через задницу

Alexey
08.12.2016
18:11:32
а про то, как логически определены метрики
ну вот...

Vladimir
08.12.2016
18:11:50
virt.v1.*.dc:dc1.role:graphiteFrontend.text-match:http_2xx
что-нибудь в таком духе пишешь и получаешь все 200-ки от nginx'а с роли и дц

Alexey
08.12.2016
18:12:22
плохо, что тут надо структуру жестко определять и документировать
иначе бошку сломаешь догадываться что же хотели сказать этой метрикой
или я пока не привык еще...

Vladimir
08.12.2016
18:12:59
@lexa_work если я не ошибаюсь, у go-carbon'а парсер протокола имеет предел масштабирования в где-то 0.5М в секунду
то есть его надо брать и оптимизировать под такое

Roman
08.12.2016
18:14:32
ну я его там в бранче раскочегаривал до 1.4m/s

Vladimir
08.12.2016
18:14:43
собственно автор парсер переписал и он стал уметь сильно больше )

Roman
08.12.2016
18:15:14
тока смысла в этом мало - все равно go-carbon упирается в виспер

Vladimir
08.12.2016
18:15:52
и вообще натягивать кластеризацию на виспер это боль
оно работает на костылях и костылями погоняет

Roman
08.12.2016
18:18:23
> @rossmohax
поидее если писать в память
В какую память? текущие версии штук под КХ не держат в памяти вообще ничего

Let Eat
08.12.2016
18:20:38

Roman
08.12.2016
18:22:48
там даже без кеша все ок - последовательная запись в файлик

Google

Let Eat
08.12.2016
18:25:25
я КХ не смотрел, но если запись последовательная, значит чтение рандомное :) хотя учитывая что пишут сильно больше чем читают, то может оно и к лучшему

Roman
08.12.2016
18:28:08
чтение близко к рандомному для совсем свежих данных. чем данные становятся старше, тем послевательнее становится их чтение

Let Eat
08.12.2016
18:28:58
оно как в leveldb их перепаковывает по ключу?

Valeriy
08.12.2016
18:35:58

Roman
08.12.2016
18:36:00
грубо говоря оно оперирует сортированными списками и периодическти мерджит несколько мелких в более крупные

Evgeny
08.12.2016
18:37:31

Vladimir
08.12.2016
18:37:42
https://github.com/dgryski/carbonapi
в принципе там основа в виде библиотеки, так что можно в теории прикрутить к чему угодно

Evgeny
08.12.2016
18:39:11
Спасибо, попробуем

Alexey
08.12.2016
18:41:31
Решили сделать митап для тех, кто участвует в разработке ClickHouse или открытых проектов, которые с ним работают: https://events.yandex.ru/events/meetings/14-dec-2016/

Roman
08.12.2016
23:56:48
Небольшой оффтопик не про КХ, но про историю инструментов BI -- научная статья, описывающая подход к анализу данных и прототип софтины, на базе который была разработана Tableau: http://graphics.stanford.edu/papers/polaris/polaris.pdf

Shine
09.12.2016
02:25:35

Renat
09.12.2016
08:54:10
А где-то публикуется changelog между версиями?

Igor
09.12.2016
08:55:14
вроде нет, список коммитов на гитхабе разве что

Aslan
09.12.2016
08:56:56
https://github.com/yandex/ClickHouse/issues/156

Alexander
09.12.2016
15:05:25
а как-нибудь можно поставить Кликхаус на Убунту 16.04
при выполнении sudo apt-get install clickhouse-server-base
у меня ошибка
clickhouse-server-base : Depends: libc6 (< 2.20) but 2.23-0ubuntu5 is to be installed
E: Unable to correct problems, you have held broken packages.