
Sergey
28.06.2018
06:30:10
Ну вот я такого не говорил, однако на любое упомнинаие зябы тут же report летел
И поделом летел, хочу заметить.
Живёшь с <....> - живи, пожалуйста, но не надо размахивать им на улице и демонстрировать детям (=новичкам). Когда-нибудь у кого-нибудь окончательно с него подгорит, и дело дойдёт до конвертера тамошних XML во что угодно - да хоть в YaML. Тогда вот эта вот псевдофича "там много искаропки" тупо перестанет быть невломенной ценностью.

Anton
28.06.2018
06:31:12

Sergey
28.06.2018
06:33:58
https://www.thruk.org/demo.html
https://www.icinga.com/products/demo/

Google

Andrey
28.06.2018
07:42:02

Anton
28.06.2018
07:43:25

Andrey
28.06.2018
07:44:20
А то я подумал ты про М.
А че за видосик?

Anton
28.06.2018
07:45:43
Я уже много где работал с З. и в М. в том числе
видосик про М. как раз

Andrey
28.06.2018
07:47:03
Так а где тут 50? На данный момент проксей всего около 17k.

Anton
28.06.2018
07:48:52
Ну в М. должно быть сейчас 16173 если судить по кол-ву с сайта
Я так то от туда уже очень давно ушел.
Если что лучше в личку, тут не как я понял нельзя ни о чем кроме прометея

Andrey
28.06.2018
07:51:02
Я зная, я тот чел которого ты отсобеседовал и сразу уволился

Anton
28.06.2018
07:52:22

Andor
28.06.2018
07:53:20

Google

Andrey
28.06.2018
07:53:28
Я щас на таоей должности
И посматриваю

Anton
28.06.2018
07:53:56

Andrey
28.06.2018
07:53:58
На пром

Andor
28.06.2018
07:54:09
Вс говно, но говорить есть о чём
Ты вот хорошую тему вчера поднял

Anton
28.06.2018
07:54:44


Sergey
28.06.2018
08:24:13
С З проблема в стоимости хранения (и решение хуже на порядок относительно прома и КХ), до недавнего времени была в еще в архитектуре прохождения метрик по которой он упирался в одно ядро что в результате давало условный предел в 50к метрик в секунду
Интересно что за железо просасывает 200к метрик в секунду на запись и сколько стоит софт (оракл)
Ну а на мелко-средних задачах можно использовать вообще все что угодно, хоть баш скрипты и писать в текст (тут об этом уже не раз шутили)
это про скорость, относительно того как он написан его + в том что его уже пилят больше 10 лет и первичная задача - его стабильность + легкоусвояемость начинающими админами + т.к. ему не ломали гуй можно рандомно открыть 100500 статей откуда угодно за последние 5 лет и они будут почти актуальны. Вот в этих плюсах его минус - последние 2 года столько всего тащится что все равно нужно начинать использовать кучу всякого, и вот с этим всяким З конечно связывается, но его внутренняя "строгость" накладывает отпечаток - его изначально пилили под мониторинг железок а не контейнеров и сервисов


GithubReleases
28.06.2018
14:17:54
yandex/ClickHouse was tagged: v1.1.54388-stable
Link: https://github.com/yandex/ClickHouse/releases/tag/v1.1.54388-stable
Release notes:
v1.1.54388-stable

Alexey
28.06.2018
15:52:00
@rlomonosov А ты пробовал далать capacity тестирование для carbon-clickhouse + clickhouse c использованием graphite_reverse?
Сколько точек на сервер в секунду от него можно ожидать хотя бы приблизительно?

Evgeny
28.06.2018
15:54:20

Roman
28.06.2018
15:56:58

Alexey
28.06.2018
15:57:06
не могу даже 750К перешагнуть
одн сервер на нем и carbon-clickhouse и clickhouse-server
никаких рекликаций, таблицы согданы отсюда
https://github.com/lomik/graphite-clickhouse-tldr/blob/master/init.sql
съедает весь CPU напополам 12 ядер один 12 ядер другой
откуда начать копать?
если кладу clickhouse to carbon-clickhouse продолжает потреблять около 6-9 ядер просто сохраняя метрики в файлы

Evgeny
28.06.2018
16:03:15
периоды разные пробовал chunk-interval ?

Alexey
28.06.2018
16:07:16
Метрики летят каждые 10s
chunk-interval = "1s"
chunk-auto-interval = "5:5s,10:60s"
ну то есть поток метрик постоянный, но разрешение 10s

Google

Roman
28.06.2018
16:18:57
у тебя и тегированные метрики есть и обычные?

Alexey
28.06.2018
16:20:29
не, простые метрики, беру копию того, что летит в go-carbon.

Roman
28.06.2018
16:22:42
выключи тогда tagged табличку. в профайле сильно отсвечивает, а не нужна

Alexey
28.06.2018
16:25:07
причем файлов он прилично насоздавал уже в Folder for buffering received data около 100 файлов и он просто ругается на timeout 5m
[2018-06-28T16:19:31.554Z] ERROR [upload] handle failed {"name": "graphite_tree", "filename": "/var/lib/carbon/carbon-clickhouse/graphite_tree/default.1530199415866159447", "error": "io: read/write on closed pipe", "time": 308.801588782}

Sergey
28.06.2018
16:26:29
я пока всегда упирался в диск, на 7200 сас получается 1.5М, но у меня нет carbon-clickhouse
жрет при этом ядер 5

Roman
28.06.2018
16:28:04

Alexey
28.06.2018
16:28:55

Sergey
28.06.2018
16:32:36
для меня пока это оверкилл по производительности т.к. еще и распределение идет по нодам, а ссд либо фиговые в плане живучести либо достаточно дорогие и их жалко для линейной записи

Alexey
28.06.2018
16:34:07

Sergey
28.06.2018
16:34:35
хорошо когда валяются никому не нужные ентерпрайз ссд :)

Alexey
28.06.2018
16:37:58
возможно есть другая ошибка в логе. эта бесполезна
[2018-06-28T16:08:57.937Z] ERROR [upload] handle failed {"name": "graphite_reverse", "filename": "/var/lib/carbon/carbon-clickhouse/graphite_reverse/default.1530197075009144457", "error": "Post http://127.0.0.1:8123/?query=INSERT+INTO+graphite_reverse+%28Path%2C+Value%2C+Time%2C+Date%2C+Timestamp%29+FORMAT+RowBinary: net/http: request canceled (Client.Timeout exceeded while awaiting headers)", "time": 300.975506536}
Вероятно так же бесполезно
или это говорит что надо больше коннектов разрешить?

Roman
28.06.2018
16:39:57
это как раз нормальная ошибка которая закрывает пайп и приводит к другой
наверно действительно не хватает цпу. отключи теггед табличку для начала. можешь вообще оставить только graphite reverse для начала

Sergey
28.06.2018
16:47:55
а что это за сервер такой малоядерный? учитывая намек на большое количество чумаданов за большое количество других чумаданов? :)

Alexey
28.06.2018
16:47:56

Google

Sergey
28.06.2018
16:49:03
грустишка
но вопрос конечно сколько надо писать и насколько потом хитро читать

Alexey
28.06.2018
16:50:32
грустишка
оно под go-carbon бралось и там cpu практически всегда не доутилизован

Admin
ERROR: S client not available

Sergey
28.06.2018
16:50:33
хотя это больше на КХ падает а не на обвязку

Alexey
28.06.2018
16:51:07

Sergey
28.06.2018
16:51:22
эммм а не наоборот?

Alexey
28.06.2018
16:51:27
неа

Sergey
28.06.2018
16:51:46
обычно метрик пишут на порядок больше чем читают
минимум на порядок

Alexey
28.06.2018
16:52:03
потому мы до сих пор на go-carbon и сидим

Sergey
28.06.2018
16:55:01
в рандомном чтении КХ хуже карбона, у меня по этой причине и то и то с переключением по условию на длительность хранения
а, т.е. выборки жирные

Alexey
28.06.2018
16:57:25

Sergey
28.06.2018
16:58:05
2 карбонапи - перед ними был сначала нжинкс с луаскриптом, теперь хапрокси
и карбон в память пишет
просто прикинул статистику что запросов старше последнего часа будет <90% (для медленных метрик там линейно дольше конечно) и как бы вуаля
в графит-КХ теперь можно раскидывать по времени в разные таблицы, но ставить эксперименты с инмемори таблицами как то времени небыло :)

Alexey
28.06.2018
17:01:22

Google

Alexey
28.06.2018
17:02:00

Sergey
28.06.2018
17:02:05
а кх и карбон-кх на одной тачке?
может в сетевой стек упирание идет? с переменными системы поиграться и вот это вот все

Alexey
28.06.2018
17:03:45

Denys ??
28.06.2018
23:26:41
@azhiltsov : ты как мертрики читаешь, по одной или скопом? по одной легко можно КХ убить. SSD disk, 40 ядер, 96ГБ рам - LA 400, все торчит.
поэтому у меня не получилось его в одну связку с го-карбоном подружить, go-carbon хочет maxGlobs 100, а КХ - maxGlobs 10000000. Хотя на мастере carbonapi можно наверно попробовать, там это можно per backend задавать

Alexey
29.06.2018
04:16:56

Denys ??
29.06.2018
07:38:12
Он у тебя только по записи умирает? однако... не должен по идее

Alexey
29.06.2018
07:39:32

Denys ??
29.06.2018
07:42:21

Sergey
29.06.2018
07:42:29
ага

Denys ??
29.06.2018
07:42:40
он так умеет? однако
ага
а примера конфига нет глянуть?