@metrics_ru

Страница 379 из 681
Nik
11.12.2017
21:12:27
Здесь нашел

https://groups.google.com/forum/#!topic/prometheus-users/wDY7wimGZl4

Nik
11.12.2017
21:29:21
Google
Dmitry
11.12.2017
21:31:23
https://gnocchi.xyz кто смотрел?

Vladimir
11.12.2017
21:32:40
Канонически, графит из чего задумывался? Протокол + карбон сторадж?
http api на чтение, протокол на запись, хранилка в whisper. В принципе все это модульное и в рамках разумного заменяемое

gnocchi довольно жестко завязан на ceph (с возможностью заменить на некоторые альтернативные штуки)

поэтому его посмотреть слегка сложнее

Vladimir
11.12.2017
21:34:15
в принципе да, но ceph recommended там

Dmitry
11.12.2017
21:34:29
типа на s3 все будет тухло работать, понятно

Vladimir
11.12.2017
21:34:52
@kireevco оно очень вероятно на запись будет нормально работать и на с3 и на цефе, но на чтение плохо

просто потому что оно вероятно пишет жирные блобы

Dmitry
11.12.2017
21:35:24
либо выйдет очень дорого) если худые)

Vladimir
11.12.2017
21:35:31
на с3 то само собой

Dmitry
11.12.2017
21:36:30
Вообще ,с карбоном распределенность или хотябы резервированность есть какая-то? у меня всегда было ощущение что оно не слишком резервируется

в родном carbon'е

Google
Dmitry
11.12.2017
21:40:00
читаю, везде пишут про consistent hash или rule based

то есть пишем в carbon cache а он отправляет в carbon storage, активно пуша данные в разные места...

типа как influx relay работает выходит...

Nik
11.12.2017
21:42:35
Графана же сама читать не умеет? АГрегировать данные из двух прометеусов не возможно?

Vladimir
11.12.2017
21:42:59
@kireevco в родном стеке - carbon-relay делает балансировку и всякое такое

по сути он по правилам начинает матчить метрики и слать в нужные стораджа

резервирование методом двойной записи и ручной синхронизации через rsync + whisper-fill

carbon-cache он кэширует и пишет на диск сразу

Dmitry
11.12.2017
21:43:38
@kireevco в родном стеке - carbon-relay делает балансировку и всякое такое
Как это по ощущениям работает? Это стабильно, вообще? из минусов eventual consistency видится

Vladimir
11.12.2017
21:43:47
во первых представь себе два клиента пишут в два разных relay'а (смотрящих на 1 сторадж, например разные в ДЦ) тчоку с одним именем, одним тс, но разным value

в graphite'е - last write wins

Dmitry
11.12.2017
21:44:31
Да, понятно.

Vladimir
11.12.2017
21:44:34
релей в ДЦ1 отправит ее в сторадж ДЦ1 и ДЦ2

до ДЦ2 она скорее медленее дойдет

возможна такая ситуация когда точка из ДЦ1 запишется в ДЦ2, а в ДЦ1 окажется точка из ДЦ2 )

Dmitry
11.12.2017
21:44:56
Чтение, соответственно тоже. Понятно

Vladimir
11.12.2017
21:45:08
в оригинальном стеке короче все плохо с этим

с чтением - кто первый ответил тот и прав

Сергей
11.12.2017
21:45:28
Google
Vladimir
11.12.2017
21:45:44
Пили быстрее свой релей
вопрос не в релее. В принципе концепция такая

@kireevco в общем у нас свои костыли есть поверх этого дела. Например демон который броадкастит запросы по стораджам и склеивает ответы

сам consistent hash в релее оригинальном отвратного качества

поэтому в carbon-c-relay'е есть jump hash, который очень хорошее распределение дает

Сергей
11.12.2017
21:46:50
По факту нужна какая-то Умная прокся которая будет слать клиента туда где данные актуальные

Vladimir
11.12.2017
21:47:02
так как у тебя нет control plane'а, то нет сущности которая знает что актуально, а что нет

Vladimir
11.12.2017
21:47:49
@p8sih именно под мониторинг такие гарантии (никаких) отлично работают на самом деле

ну потому что данные некритично продолбать или получить неконсистентость

и вообще некритично если сервак ребутался подождать часик-день-неделю ресинка, если копий достаточно

Сергей
11.12.2017
21:48:21
Фин сектор?

Vladimir
11.12.2017
21:48:31
Фин сектор?
а вот под него графит совсем не годится

Сергей
11.12.2017
21:48:33
Не думаю что там это тоже некритично

Vladimir
11.12.2017
21:49:00
@p8sih под фин сектор совсем свои требования. Я бы сказал там и float64 как точка тоже не очень

Сергей
11.12.2017
21:49:17
Интересно что там

Denys ??
11.12.2017
23:10:43
Какие нить суровые оракла

https://blogs.oracle.com/utilities/need-to-track-hundreds-of-billions-of-data-points-these-opower-engineers-open-source-software-can-help - LOL

2014 год правда

Google
Denys ??
11.12.2017
23:12:40
но думается фин сектор прам в оракл и пишет

и только деньги мешками докидывает за лицензии

PROFIT

Алексей
11.12.2017
23:17:00
но думается фин сектор прам в оракл и пишет
ак был же стеб про хранение временных рядов постами в wordpress

Alexander
12.12.2017
07:35:30
Ребят, поясните мне как работает роллап в кликхаусе

Из него же данные не удалаются? Накой тогда вообще роллап нужет там?

Алексей
12.12.2017
07:46:13
Ну не то чтобы не удаляются вообще

Дропай партиции и все

Admin
ERROR: S client not available

Alexander
12.12.2017
07:46:40
не это понятно

я дропаю партиции

например за ноябрь

роллапы тоже уйдут в небытие?

Vladimir
12.12.2017
07:51:57
Из него же данные не удалаются? Накой тогда вообще роллап нужет там?
Во время мержа файликов он смотрит нужно ли что то пороллапить и роллапит если нужно (если речь про GraphiteMergeTree).

Alexander
12.12.2017
07:53:05
Да про него

Vladimir
12.12.2017
07:53:18
Дропаешь партиции - все что в партиции теряется. Если aggregating merge tree то в нем также агрегации делаются при мерже

Alexander
12.12.2017
07:54:08
но все же удаляя партицию за ноябрь я получается удаляю данные, и за ноябрь роллапных данных не увижу?

Google
Alexander
12.12.2017
07:54:27
гм

Vladimir
12.12.2017
07:54:33
Роллапы будут когда мерж процесс до них дойдет

Если дойдет

Поэтому они по времени не детерминированы и в общем случаи негарантированы

Andrey
12.12.2017
07:58:10
подскажите, почему может быть такое поведение у grafana что при выставленном single mode в Hover tooltip на плагине graph, при наведении на одном графике только выделенное значение показывается а на соседнем начинают отражаться все

Andrey
12.12.2017
08:03:56
я так понимаю там 2 режима - all series и single, при обоих выставленных single возникает ситуация описанная выше

yuyu
12.12.2017
08:32:19
Да.
Это точно так? В чём тогда сакральный смысл роллапов в GraphiteMergeTree, если они дропаются вместе с партициями? Чем они тогда лучше materialized views?

Roman
12.12.2017
08:43:56
Это точно так? В чём тогда сакральный смысл роллапов в GraphiteMergeTree, если они дропаются вместе с партициями? Чем они тогда лучше materialized views?
не понятен вопрос. дроп партиций - способ удалить старые данные, роллап - способ "огрубить" старые данные и уменьшить их размер

yuyu
12.12.2017
09:18:34
не понятен вопрос. дроп партиций - способ удалить старые данные, роллап - способ "огрубить" старые данные и уменьшить их размер
Что тут непонятного? Огрубление данных в роллапах - для экономии места, чтобы можно было дольше хранить. Но при этом дроп партиции удаляет и огрублённые данные за этот месяц. Странно как-то... Где тут логика?

yuyu
12.12.2017
09:24:41
Так если вы не хотите удалять старые огрубленные данные, то зачем запускать дроп партиции?
Да, тормознул похоже. С обычным MergeTree попутал. В случае GraphiteMergeTree детальные данные ограничены во времени и не распухают, а мигрируют в огрублённые. Тогда ОК.

Vladimir
12.12.2017
09:36:03
мерж это фоновый процесс слияния кусков

данные огрубляются когда мерж читает с диска и смотрит как куски слить

просто он может никогда не случиться

точнее optimize final должен помочь

Алексей
12.12.2017
09:41:00
точнее optimize final должен помочь
Он дорогой очень по месту

Vladimir
12.12.2017
09:41:10
Алексей
12.12.2017
09:41:38
ЦПУ бесконечен место реже...

Roman
12.12.2017
09:43:07
Он дорогой очень по месту
угу. уже несколько раз спотыкались о то, что место заканчивается, нужно сделать optimize, а КХ отказывается и говорит что места не хватит

Страница 379 из 681