@metrics_ru

Страница 530 из 681
Sergey
11.05.2018
15:02:37
можно KeepLastValue() использовать если у вас время обновления даша быстрее чем метрики пишутся

ну и если это Null и дропов нет то можно с дисплей опциями поиграца, не рисовать null как 0 например

Andor
11.05.2018
15:35:36
Кажется он прямо щас так рисуется

Google
vladimir
11.05.2018
15:57:45
Хотя я бы прям из приложений в нужные порты писал, думаю что дублировать одно и тоже но с разной гранулярностью особо не имеет смысла.

Evgeny
11.05.2018
16:03:28
Хотя я бы прям из приложений в нужные порты писал, думаю что дублировать одно и тоже но с разной гранулярностью особо не имеет смысла.
эта доп логика в приложении ихмо совсем лишняя, у нас кейс это например часть потока метрик смотреть с минимально возможным временем обновления (в идеале реал-тайм - но я таких дашбородов не видел для графаны) ну и хранить их тоже желательно отдельно, в carbon-ch это норм решается разными таблицами

vladimir
11.05.2018
16:09:16
эта доп логика в приложении ихмо совсем лишняя, у нас кейс это например часть потока метрик смотреть с минимально возможным временем обновления (в идеале реал-тайм - но я таких дашбородов не видел для графаны) ну и хранить их тоже желательно отдельно, в carbon-ch это норм решается разными таблицами
Ну так ведь тебе в любом случае эти метрики как-то в statsd отправлять то придётся, и адрес и порт агрегатора для этого приложения указывать надо. Там и укажи порт statsd с наименьшим интервалом. Потом те которые нужно с большей частотой просматривать обернётся в графите в summarize

vladimir
11.05.2018
16:11:41
Так я и говорю что не надо несколько, отправляй с наименьшим. В графите потом схлопнешь

Evgeny
11.05.2018
16:12:49
тут возникает другая проблема что - нужно будет поправить n-е количество дашбордов + выктить релиз приложения

меньше контроля

vladimir
11.05.2018
16:13:13
Хоть посекундные агрегаты отправляй, если у тебя иветнов генерирующих эти метрики миллионы

И как долго с такой детализацией ты планируешь хранить эти данные

Есть вариант все метрики из statsd писать сразу с наименьшим интервалом, и через сутки роллапить их в долгосрочное.

Evgeny
11.05.2018
16:19:22
детализация в несколько секунд нужна по факту за несколько часов всего

Google
vladimir
11.05.2018
16:20:43
У КХ по-моему минимальный срок жизни партиции это сутки.

Поэтому пару часов врятли прокатит

Deep Sea
11.05.2018
16:21:29
раньше вроде месяц был, пофиксили уже?

vladimir
11.05.2018
16:21:54
Evgeny
11.05.2018
16:22:01
есть уже дневные партиции - да мы пользуемся

Deep Sea
11.05.2018
16:22:02
отлично

vladimir
11.05.2018
16:22:38
есть уже дневные партиции - да мы пользуемся
Так какой объем метрик на входе/выходе?

Evgeny
11.05.2018
16:24:52
прямо сейчас поток метрик 10К в секунду , занимает около 300Гб в clickhouse на 4 серверах, время хранения почти год

в основном все минутные

vladimir
11.05.2018
16:25:14
Хм, а надо?

Evgeny
11.05.2018
16:26:18
а надо где то на на 1% от всех метрик иметь очень частый интервал обновления и чтобы он не зависел от приложения )

vladimir
11.05.2018
16:27:21
10к это достаточно не много. Я бы сделал для всего statsd 5-10сек и складывал в графит, и через сутки роллапил в минуту

И объем сильно не взлетит и детализацию апнешь, и единая точка входа для всех приложений

И писал бы это все в отдельную реверсивную таблицу, тем самым подняв скорость обработки запросов раз в 5

Evgeny
11.05.2018
16:31:12
10к это достаточно не много. Я бы сделал для всего statsd 5-10сек и складывал в графит, и через сутки роллапил в минуту
думал так сделать - но есть подводные камни в виде того что не все метрки однозначно правильно можно роллапить , нужно провести некоторый анализ

Roman
11.05.2018
16:37:53
у нас есть любопытный пример реалтайм статистики. демон принимает пакетики и аггрегирует в памяти в минутные аггрегаты, хранит минут 30 но при этом текущую минуту он считает как сумму за последние 60 секунд (чтобы не было всяких резких падений в начале очередной минуты) отдает это по старому доброму carbonlink-у в graphite-clickhouse

Roman
11.05.2018
16:43:22
никак. оно заточено под наши нужны и принимает наши собственные события (к графиту сами события отношения не имеют) я рассказал просто как пример реализации реалтайм графиков

Google
vladimir
11.05.2018
16:47:19
У нас статсд делает почти тоже самое

Только сумма это малая часть того что он на отдаёт

Igor
11.05.2018
16:53:53
не знаком хорошо с statsd, не использую его. flink может делать скользящие окна, масштабируется горизонтально и т.д. Я его как-то прикрутил для пробы суммирования и алертинга метрик с ошибками в реалтайме, но эксперимент был коротким и никакого вывода сделать я не смог.

vladimir
11.05.2018
17:13:53
Мы очень активно используем statsd. У нас практически все сервисы пишут через него метрики в графит. На вход 2млн метрик в сек, на выходе 1млн в 30сек. Мы пробовали увеличивать детализацию до 10секунд, но пользователи в 99.9% случаев их потом на графиках отображают либо в минутных интервалах либо в 30сек. Поэтому мы решили что 30сек вполне достаточно

Vadim
12.05.2018
15:11:26
Всем привет. Поставил prometheus в kubernetes. Такая проблема есть одно приложение (deployment) которое отдает метрику на кастомном порту, которого нет в expose. Можно как-то прометеусу сказать что вот к таким-то подам за метриками ходить по отдельному порту ?

Vadim
12.05.2018
19:05:17
А если будет expose, можно будет прометеусу сказать на какой порт ходить ? Или он на все стучаться будет ?

Andor
12.05.2018
19:08:00
а как у тебя прометеус вообще таргеты находит?

Vadim
13.05.2018
06:10:41
Evgeny
13.05.2018
08:14:50
ну ты как бы уже придумал решение? вполне себе нормальное тебе умный UDP репликатор нужен ? ну наверное проще на golang написать такое или существующему statsd добавить функционал который ты хочешь https://github.com/atlassian/gostatsd
Интересно, не видел раньше этого демона, вчера уже запилил у себя решение. На входе поставил udp-mirror за ним пару brubeck с разными интервалами агрегации + ещё carbon-c-relay к метрикам которые с маленьким интервалом считаются добавляет поле .ten_second. чтобы они попадали на отдельный rollup в clickhouse.

Хм https://github.com/atlassian/gostatsd ещё и теги поддерживает

Artem
13.05.2018
11:00:13
Алексей
13.05.2018
11:00:21
неужели атлассиан что то сделал годное для опенсорса

Artem
13.05.2018
11:00:49
Того и гляди жиру на го перепилят

Алексей
13.05.2018
11:01:05
ахаха тоесть мяу.

Artem
13.05.2018
11:01:31
И как? Юзает кто в проде? Gostatsd

Google
Алексей
13.05.2018
11:01:49
и вообще как то странно. атлассиан на гитхабе видеть...

Artem
13.05.2018
11:02:08
А celery не напилили еще на go?)

Алексей
13.05.2018
11:02:13
они в курсе то у них там есть бб

Sergey
13.05.2018
11:02:22
Омг, это замена привычному statsd?
Дрянь на ноде, жрущая память не в себя - это привычно? O_o

Admin
ERROR: S client not available

Vasyl
13.05.2018
17:05:11
господа, может подскажете как лучше реализовать запись netflow в influx? Планируется примерно следующая схема: хост пушит netflow данные на другой, где стоит коллектор (nfcapd), который каждую минуту через костыль (nfdump + самописный скрипт) пушит в influx. Находил вариант с pmacct + подобный костыль. Может встречал кто менее костыльный вариант?

Алексей
13.05.2018
17:16:03
Коллеги, подскажите пожалуйста как можно в графане на графике рядом с каждой точкой показывать ее значение?

Deep Sea
13.05.2018
17:18:45
Только по наведению курсора

Виталий
13.05.2018
17:26:16
Менее костыльным вариантом будет что угодно кроме influxdb. Интересуюсь иногда темой netflow. Вот пара ссылок за сегодня. https://fastnetmon.com/traffic-metrics-in-clickhouse/

https://github.com/robcowart/elastiflow

Vasyl
13.05.2018
17:33:23
Так уж исторически сложилось что надо в influx :(

Иван
13.05.2018
18:41:29
подскажите пожалуйста есть парсер, шлю в пушгейтвей прометеуса кол-во итемов которое распарсились хочу алерт если типа сумма метрики за последние 4 часа больше или меньше в 2 раза чем средняя сумма за это же время за последнюю неделю из-за того что метрика лежит в гейтвее постоянно, получается кисло пытался костылить через прокладку чтоб метрика удалялась после того как прометеус ее забрал, но чето дичь может я вообще что-то не то делаю?)

Deep Sea
13.05.2018
18:44:24
вы прометеус как-то странно готовите

Иван
13.05.2018
18:45:06
у меня есть пхп скрипты которые крутятся из них я отправляю метрики на пушгейтвей

прометеус это тпушгейтвей скрапит

я впервые это все трогаю вообще

Deep Sea
13.05.2018
18:45:28
в идеале лучше иметь сумму всех событий и ловить изменения тупо через increase()

но я с пушгейтвеем не работал, сейчас доку посмотрю

Google
Иван
13.05.2018
18:45:57
ммм а я хотел типа каждый результат прогона скрипта фиксировать

ну вот у пушгейтвея есть апи метод для удаления метрик

начальник уже говорит свой пушгейтвей с базой пилить

но мне чет не охота

Deep Sea
13.05.2018
18:46:29
суть в том что не нужно удалять

Иван
13.05.2018
18:46:35
я понимаю

но как тогда разделять

результат каждого выполнения скрипта

чтоб такой алерт как просят сделать: мне надо как sum_over_time

брать

но типа если прометеус скрапит раз 15сек а скрипт выполняется там долго - sum_over_time даст ваще не то

Deep Sea
13.05.2018
18:47:33
сделайте counter и просто increase([inteval]) на него

Иван
13.05.2018
18:47:35
по сути я хочу точки

Nklya
13.05.2018
18:47:35
Использование прома с пушгейтвеем это такое

Иван
13.05.2018
18:47:45
а что посоветуете?

Nklya
13.05.2018
18:48:04
Основной вей - он ходит собирать в эндпойнты

Страница 530 из 681