
Sergey
11.05.2018
15:02:37
можно KeepLastValue() использовать если у вас время обновления даша быстрее чем метрики пишутся
ну и если это Null и дропов нет то можно с дисплей опциями поиграца, не рисовать null как 0 например

Andor
11.05.2018
15:35:36
Кажется он прямо щас так рисуется

vladimir
11.05.2018
15:56:08

Google

vladimir
11.05.2018
15:57:45
Хотя я бы прям из приложений в нужные порты писал, думаю что дублировать одно и тоже но с разной гранулярностью особо не имеет смысла.

Evgeny
11.05.2018
16:03:28

vladimir
11.05.2018
16:09:16

Pablo
11.05.2018
16:10:36

Evgeny
11.05.2018
16:10:57

vladimir
11.05.2018
16:11:41
Так я и говорю что не надо несколько, отправляй с наименьшим. В графите потом схлопнешь

Evgeny
11.05.2018
16:12:49
тут возникает другая проблема что - нужно будет поправить n-е количество дашбордов + выктить релиз приложения
меньше контроля

vladimir
11.05.2018
16:13:13
Хоть посекундные агрегаты отправляй, если у тебя иветнов генерирующих эти метрики миллионы
И как долго с такой детализацией ты планируешь хранить эти данные
Есть вариант все метрики из statsd писать сразу с наименьшим интервалом, и через сутки роллапить их в долгосрочное.

Evgeny
11.05.2018
16:19:22
детализация в несколько секунд нужна по факту за несколько часов всего

Google

vladimir
11.05.2018
16:20:43
У КХ по-моему минимальный срок жизни партиции это сутки.
Поэтому пару часов врятли прокатит

Deep Sea
11.05.2018
16:21:29
раньше вроде месяц был, пофиксили уже?

vladimir
11.05.2018
16:21:54

Evgeny
11.05.2018
16:22:01
есть уже дневные партиции - да мы пользуемся

Deep Sea
11.05.2018
16:22:02
отлично

vladimir
11.05.2018
16:22:38

Evgeny
11.05.2018
16:24:52
прямо сейчас поток метрик 10К в секунду , занимает около 300Гб в clickhouse на 4 серверах, время хранения почти год
в основном все минутные

vladimir
11.05.2018
16:25:14
Хм, а надо?

Evgeny
11.05.2018
16:26:18
а надо где то на на 1% от всех метрик иметь очень частый интервал обновления и чтобы он не зависел от приложения )

vladimir
11.05.2018
16:27:21
10к это достаточно не много. Я бы сделал для всего statsd 5-10сек и складывал в графит, и через сутки роллапил в минуту
И объем сильно не взлетит и детализацию апнешь, и единая точка входа для всех приложений
И писал бы это все в отдельную реверсивную таблицу, тем самым подняв скорость обработки запросов раз в 5

Evgeny
11.05.2018
16:31:12

vladimir
11.05.2018
16:32:37

Roman
11.05.2018
16:37:53
у нас есть любопытный пример реалтайм статистики. демон принимает пакетики и аггрегирует в памяти в минутные аггрегаты, хранит минут 30
но при этом текущую минуту он считает как сумму за последние 60 секунд (чтобы не было всяких резких падений в начале очередной минуты)
отдает это по старому доброму carbonlink-у в graphite-clickhouse

Evgeny
11.05.2018
16:41:03

Roman
11.05.2018
16:43:22
никак. оно заточено под наши нужны и принимает наши собственные события (к графиту сами события отношения не имеют)
я рассказал просто как пример реализации реалтайм графиков

Google

Igor
11.05.2018
16:47:11

vladimir
11.05.2018
16:47:19
У нас статсд делает почти тоже самое
Только сумма это малая часть того что он на отдаёт

Igor
11.05.2018
16:53:53
не знаком хорошо с statsd, не использую его. flink может делать скользящие окна, масштабируется горизонтально и т.д. Я его как-то прикрутил для пробы суммирования и алертинга метрик с ошибками в реалтайме, но эксперимент был коротким и никакого вывода сделать я не смог.

vladimir
11.05.2018
17:13:53
Мы очень активно используем statsd. У нас практически все сервисы пишут через него метрики в графит. На вход 2млн метрик в сек, на выходе 1млн в 30сек. Мы пробовали увеличивать детализацию до 10секунд, но пользователи в 99.9% случаев их потом на графиках отображают либо в минутных интервалах либо в 30сек. Поэтому мы решили что 30сек вполне достаточно

Vadim
12.05.2018
15:11:26
Всем привет. Поставил prometheus в kubernetes. Такая проблема есть одно приложение (deployment) которое отдает метрику на кастомном порту, которого нет в expose. Можно как-то прометеусу сказать что вот к таким-то подам за метриками ходить по отдельному порту ?

Pablo
12.05.2018
15:48:23

Andor
12.05.2018
16:08:36

Vadim
12.05.2018
19:05:17
А если будет expose, можно будет прометеусу сказать на какой порт ходить ? Или он на все стучаться будет ?

Andor
12.05.2018
19:08:00
а как у тебя прометеус вообще таргеты находит?

Slach
13.05.2018
03:57:04

Vadim
13.05.2018
06:10:41

Evgeny
13.05.2018
08:14:50
Хм https://github.com/atlassian/gostatsd ещё и теги поддерживает

Artem
13.05.2018
11:00:13

Алексей
13.05.2018
11:00:21
неужели атлассиан что то сделал годное для опенсорса

Artem
13.05.2018
11:00:49
Того и гляди жиру на го перепилят

Алексей
13.05.2018
11:01:05
ахаха тоесть мяу.

Evgeny
13.05.2018
11:01:10

Artem
13.05.2018
11:01:31
И как? Юзает кто в проде? Gostatsd

Google

Алексей
13.05.2018
11:01:49
и вообще как то странно. атлассиан на гитхабе видеть...

Artem
13.05.2018
11:02:08
А celery не напилили еще на go?)

Алексей
13.05.2018
11:02:13
они в курсе то у них там есть бб

Sergey
13.05.2018
11:02:22

Artem
13.05.2018
11:02:26

Admin
ERROR: S client not available

Vasyl
13.05.2018
17:05:11
господа, может подскажете как лучше реализовать запись netflow в influx? Планируется примерно следующая схема: хост пушит netflow данные на другой, где стоит коллектор (nfcapd), который каждую минуту через костыль (nfdump + самописный скрипт) пушит в influx. Находил вариант с pmacct + подобный костыль. Может встречал кто менее костыльный вариант?

Алексей
13.05.2018
17:16:03
Коллеги, подскажите пожалуйста как можно в графане на графике рядом с каждой точкой показывать ее значение?

Deep Sea
13.05.2018
17:18:45
Только по наведению курсора

Виталий
13.05.2018
17:26:16
Менее костыльным вариантом будет что угодно кроме influxdb.
Интересуюсь иногда темой netflow. Вот пара ссылок за сегодня. https://fastnetmon.com/traffic-metrics-in-clickhouse/
https://github.com/robcowart/elastiflow

Vasyl
13.05.2018
17:33:23
Так уж исторически сложилось что надо в influx :(

Иван
13.05.2018
18:41:29
подскажите пожалуйста
есть парсер, шлю в пушгейтвей прометеуса кол-во итемов которое распарсились
хочу алерт если типа сумма метрики за последние 4 часа больше или меньше в 2 раза чем средняя сумма за это же время за последнюю неделю
из-за того что метрика лежит в гейтвее постоянно, получается кисло
пытался костылить через прокладку чтоб метрика удалялась после того как прометеус ее забрал, но чето дичь
может я вообще что-то не то делаю?)

Deep Sea
13.05.2018
18:44:24
вы прометеус как-то странно готовите

Иван
13.05.2018
18:45:06
у меня есть пхп скрипты которые крутятся
из них я отправляю метрики на пушгейтвей
прометеус это тпушгейтвей скрапит
я впервые это все трогаю вообще

Deep Sea
13.05.2018
18:45:28
в идеале лучше иметь сумму всех событий и ловить изменения тупо через increase()
но я с пушгейтвеем не работал, сейчас доку посмотрю

Google

Иван
13.05.2018
18:45:57
ммм а я хотел типа каждый результат прогона скрипта фиксировать
ну вот у пушгейтвея есть апи метод для удаления метрик
начальник уже говорит свой пушгейтвей с базой пилить
но мне чет не охота

Deep Sea
13.05.2018
18:46:29
суть в том что не нужно удалять

Иван
13.05.2018
18:46:35
я понимаю
но как тогда разделять
результат каждого выполнения скрипта
чтоб такой алерт как просят сделать: мне надо как sum_over_time
брать
но типа если прометеус скрапит раз 15сек а скрипт выполняется там долго - sum_over_time даст ваще не то

Deep Sea
13.05.2018
18:47:33
сделайте counter и просто increase([inteval]) на него

Иван
13.05.2018
18:47:35
по сути я хочу точки

Nklya
13.05.2018
18:47:35
Использование прома с пушгейтвеем это такое

Иван
13.05.2018
18:47:45
а что посоветуете?

Nklya
13.05.2018
18:48:04
Основной вей - он ходит собирать в эндпойнты