@clickhouse_ru

Страница 32 из 723
Vladimir
08.12.2016
18:00:34
а сколько метрик примерно?
когда последний раз считал 56млн уникальных названий

Alexey
08.12.2016
18:00:48
солидно

Vladimir
08.12.2016
18:00:50
но не на 2М в секунду :)
секрет в том что это примерно 45 серверов без учета репликаций

и под 200 с учетом (4х кратная)

Google
Alexey
08.12.2016
18:01:01
ух...

Vladimir
08.12.2016
18:01:10
соответственно на бэкэнд сумарно выходит 8 с лишним млн уже

Alexey
08.12.2016
18:01:26
чтож такое вы там мониторите...

Vladimir
08.12.2016
18:01:36
а фишка в том что в тесте кликхаус 2.4млн в секунду на 1 сервер может переварить и упирается в сеть

Let Eat
08.12.2016
18:01:38
Vladimir
08.12.2016
18:01:48
на одну графит ноду 8 миллионов?
нет конечно, на одну ноду больше 150 тысяч в секунду не бывает

http://events.linuxfoundation.org/sites/events/files/slides/booking-graphite-atscale-linuxconeur2k16.pdf

Alexey
08.12.2016
18:02:20
а вот это все как аркиструется при горизонтальном масштабировании?

Alexey
08.12.2016
18:02:40
крутая у вас задница

видать железобетонная

Vladimir
08.12.2016
18:02:47
до недавнего времени - берем машин больше чем нужно и переносим данные скриптом на баше )

через неделю выключаем старый кластер

Google
Alexey
08.12.2016
18:03:05
в общем я под впечатлением...

Vladimir
08.12.2016
18:03:06
сейчас через bucky tools переносятся только новые метрики на новые сервера

склеивание ответов - carbonzipper наш (см презенташку вверху)

просто оно по пределу масштабирования наверное в 3-4 раза вырасти еще может

потом сдохнет

Let Eat
08.12.2016
18:03:48
нет конечно, на одну ноду больше 150 тысяч в секунду не бывает
почему? размер блока в фс сделать 512 байт, взвинтить vm.dirty_expire_centisecs на значения в десятки минут и вуаля - по 1кб памяти на метрику расходуется

Vladimir
08.12.2016
18:03:52
а кликхаус может на 1 сервер все метрики вписать

то есть мы читали то что успело записаться на диск

диски хоть и ссд но ограничены чем-то в районе 50к иопсов на запись

даже если потюнить кэши и пр., все равно не очень весело

Let Eat
08.12.2016
18:04:56
читать из пейджкэша тоже ж можно

Vladimir
08.12.2016
18:05:03
можно, но сложнее

тюнить много

если сервер упал - больше восстанавливать

Let Eat
08.12.2016
18:05:42
go-carbon вот прям сейчас на убогий raid5 пишут 2М/минуту на ноду с тюнингом описаным выше и нагрузки ноль, одно ядро занято чуток

Vladimir
08.12.2016
18:06:11
@rossmohax там проблема в том что примерно с 2013 по 2015 год никто графитом не занимался на фултайме, периодически бывали хакатоны и народ что-то подкручивал

в 2015 году один человек на фултайме его попиливал

и другой периодически советами помогал

Google
Vladimir
08.12.2016
18:07:47
а с 2016 стала полноценная команда, но изначальный автор половины кода ушел заниматься другим

Let Eat
08.12.2016
18:07:58
ну заводить КХ под это дело радикальный вариант :)

Vladimir
08.12.2016
18:07:59
так что оно только сейчас начало развиваться систематически, а не стихийно

ну заводить КХ под это дело радикальный вариант :)
это как шаг на будущее. Сейчас подчистили текущий технический долг

Let Eat
08.12.2016
18:08:33
но интересный, опишите потом опыт :)

Vladimir
08.12.2016
18:08:37
и можно посмотреть чем бы компактнее хранить данные, веселее делать аналитику и т.п.

тем более вот тут @rlomonosov запилил клевые прокси из графита в кликхаус и из кликхауса в графит

одну софтину которая совместима с нашим стэком и умеет спрашивать кликхаус и другую софтину которая line protocol принимает и пишет и делает это быстро

Alexey
08.12.2016
18:09:34
но предупреждали, что там не все так радужно

Let Eat
08.12.2016
18:09:46
поидее если писать в память, то не вижу почему оно не может выжимать миллионы в секунду, все упрется в page cache

Vladimir
08.12.2016
18:09:50
но предупреждали, что там не все так радужно
везде свои проблемы, вопрос в том какие и как жить

надежность падает пропорционально

carbon-cache умрет быстро

go-carbon умрет позже, но тоже умрет в какой-то момент

Alexey
08.12.2016
18:10:34
если честно, мне подход к организации метрик в стиле graphite после openTSDB и Ko, как-то не очень приживается

Let Eat
08.12.2016
18:10:43
нее, я про go-carbon конечно. нет не умрет, у него в памяти ничего висеть не будет

Alexey
08.12.2016
18:11:02
я вот думаю, что более прогрессивно было бы попробовать на CH что-то более нативное сделать

я не про сам openTSDB

Google
Let Eat
08.12.2016
18:11:11
расход памятьи- 1кб/метрику независимо от количества обновлений

Vladimir
08.12.2016
18:11:20
я не про сам openTSDB
у нас поверх графита есть поиск по тэгам :)

синтаксис только через задницу

Alexey
08.12.2016
18:11:32
а про то, как логически определены метрики

ну вот...

Vladimir
08.12.2016
18:11:50
virt.v1.*.dc:dc1.role:graphiteFrontend.text-match:http_2xx

что-нибудь в таком духе пишешь и получаешь все 200-ки от nginx'а с роли и дц

Alexey
08.12.2016
18:12:22
плохо, что тут надо структуру жестко определять и документировать

иначе бошку сломаешь догадываться что же хотели сказать этой метрикой

или я пока не привык еще...

Vladimir
08.12.2016
18:12:59
@lexa_work если я не ошибаюсь, у go-carbon'а парсер протокола имеет предел масштабирования в где-то 0.5М в секунду

то есть его надо брать и оптимизировать под такое

Roman
08.12.2016
18:14:32
ну я его там в бранче раскочегаривал до 1.4m/s

Vladimir
08.12.2016
18:14:43
собственно автор парсер переписал и он стал уметь сильно больше )

Roman
08.12.2016
18:15:14
тока смысла в этом мало - все равно go-carbon упирается в виспер

Vladimir
08.12.2016
18:15:52
и вообще натягивать кластеризацию на виспер это боль

оно работает на костылях и костылями погоняет

Roman
08.12.2016
18:18:23
> @rossmohax поидее если писать в память В какую память? текущие версии штук под КХ не держат в памяти вообще ничего

Roman
08.12.2016
18:22:48
там даже без кеша все ок - последовательная запись в файлик

Google
Let Eat
08.12.2016
18:25:25
я КХ не смотрел, но если запись последовательная, значит чтение рандомное :) хотя учитывая что пишут сильно больше чем читают, то может оно и к лучшему

Roman
08.12.2016
18:28:08
чтение близко к рандомному для совсем свежих данных. чем данные становятся старше, тем послевательнее становится их чтение

Let Eat
08.12.2016
18:28:58
оно как в leveldb их перепаковывает по ключу?

Valeriy
08.12.2016
18:35:58
А скажите, есть ли в CH возможность делать массивы, например, Array(String) внутри Nested-структур?
Создавать массивы в nested-структурах нельзя. То, что CH позволяет их создавать - бага. https://github.com/yandex/ClickHouse/issues/193 и https://github.com/yandex/ClickHouse/issues/234 (вероятно, что вторая ваша и есть)

Roman
08.12.2016
18:36:00
грубо говоря оно оперирует сортированными списками и периодическти мерджит несколько мелких в более крупные

Vladimir
08.12.2016
18:37:42
А в паблике нет вашего graphite-api на go?
есть, но оно на остальной наш стек завязано )

https://github.com/dgryski/carbonapi

в принципе там основа в виде библиотеки, так что можно в теории прикрутить к чему угодно

Evgeny
08.12.2016
18:39:11
Спасибо, попробуем

Alexey
08.12.2016
18:41:31
Решили сделать митап для тех, кто участвует в разработке ClickHouse или открытых проектов, которые с ним работают: https://events.yandex.ru/events/meetings/14-dec-2016/

Roman
08.12.2016
23:56:48
Небольшой оффтопик не про КХ, но про историю инструментов BI -- научная статья, описывающая подход к анализу данных и прототип софтины, на базе который была разработана Tableau: http://graphics.stanford.edu/papers/polaris/polaris.pdf

Renat
09.12.2016
08:54:10
А где-то публикуется changelog между версиями?

Igor
09.12.2016
08:55:14
вроде нет, список коммитов на гитхабе разве что

Aslan
09.12.2016
08:56:56
https://github.com/yandex/ClickHouse/issues/156

Alexander
09.12.2016
15:05:25
а как-нибудь можно поставить Кликхаус на Убунту 16.04 при выполнении sudo apt-get install clickhouse-server-base у меня ошибка clickhouse-server-base : Depends: libc6 (< 2.20) but 2.23-0ubuntu5 is to be installed E: Unable to correct problems, you have held broken packages.

Страница 32 из 723