
Иван
14.05.2018
15:12:15
елка как раз для этого? по логам график построить?)

Andor
14.05.2018
15:12:19
Да не события у него, а количество обработанных

Иван
14.05.2018
15:12:32
ну как бы завершение скрипта по сути событие

Andor
14.05.2018
15:12:57
Тебе завершение скрипта надо обрабатывать или количество обработанных считать?

Google

Bogdan (SirEdvin)
14.05.2018
15:13:30

Andor
14.05.2018
15:13:33

Иван
14.05.2018
15:13:43
я видел да
мне надо значить сколько обработалось по завершению скрипта - общее количество, не скорость и т д

Andor
14.05.2018
15:14:43
В чём проблема считать каунтер?

Иван
14.05.2018
15:14:53
ну это чисто первое что я пытаюсь сделать, в целом там будет много разных метрик - включая те которые нормально с прометеусом должны работать
проблема в том что я не понимаю как сделать алерт такой как просят, если у меня в time-series бд хранится записи на каждый скрапинг, а не на каждое завершение скрипта

Andor
14.05.2018
15:15:49
Ничо не понял

Иван
14.05.2018
15:16:26
ну прометеус скрапит пушгейтвей - в нем лежит каунтер который не обновлялся долго потому что скрипт там допустим 3 часа парсит
соотв на каждые 15сек будет запись вида таймстемп - значение

Andor
14.05.2018
15:16:33
По мере обработки данных внутри твоего скрипта ты же можешь в каком-нибудь мемкеше делать инкремент одного значения например?
И сделать специальный скрипт который в этот мемкеш смотрит и отдаёт прометею это значение
Можно же так сделать?
Без пушгейтвея

Google

Иван
14.05.2018
15:17:37
да

Andor
14.05.2018
15:17:43
Ну
А потом в графане например ты же можешь выводить типа metric_name - metric_name offset 1m?
Получишь прирост в минуту
Ну или increase/rate

Иван
14.05.2018
15:21:14
если сумма распаршеных итемов больше или меньше в два раз чем среднее занчение за последнюю неделю в этот же период времени
такое вот нереально сделать?
надо как то алерт переформулировать и все встанет на свои места наверное)

Andor
14.05.2018
15:21:39
Если сделаешь как я сказал - легко

Иван
14.05.2018
15:21:49
ща попробую

Dmitry
14.05.2018
18:06:52

Ildar
14.05.2018
18:09:08
Спасибо, за инфу

GithubReleases
14.05.2018
19:43:00
yandex/ClickHouse was tagged: v1.1.54381-stable
Link: https://github.com/yandex/ClickHouse/releases/tag/v1.1.54381-stable
Release notes:
v1.1.54381-stable

Robert
14.05.2018
20:00:48
Кто идёт в среду на мониторинг в Авито?
Я уже подготовил плакат "nagios лучше всех"

Даниил
14.05.2018
20:02:45
а как же Za....

Gleb
14.05.2018
20:02:56

Robert
14.05.2018
20:03:51
Вообще, нагиос и в правду крутой, а у кого правда, тот и сильней
Он простой как топор, а все эти "а как там обеспечивается HA" "а как мониторить плавующие контейнеры" как настроишь так и мониторить

Google

Dmitry
14.05.2018
20:06:32
Вот думаю, есть телеметрия, и есть те или иные паттерны. типа резкий пик или резкий спад. Задача - находить паттерны и классифицировать как события. события надо куда-то писать. Есть мысли, но оставлю на попозже, может есть у кого идеи по общей схеме?

GithubReleases
14.05.2018
20:07:07
influxdata/kapacitor was tagged: v1.5.0-rc4
Link: https://github.com/influxdata/kapacitor/releases/tag/v1.5.0-rc4
Release notes:
cut v1.5.0-rc4

Evgeny
15.05.2018
00:17:46

Dmitry
15.05.2018
00:19:05
а вообще изначально просто хотел через scikit-learn запилить
у меня вопрос куда складывать события, опять в Time Series?
или взять более общую базу типа mongo / MySQL

vladimir
15.05.2018
04:34:53
у меня вопрос куда складывать события, опять в Time Series?
Смотря что именно ты хочешь по этим событиям видеть: одно дело просто считать количество приходящих события, пусть их даже миллионы и они все разные, тогда вполне подходит timeSeries; другое дело, если тебе нужно считать как одно событие воздействует на второе, а второе на третие, тогда это уже лучше в вертику.

Andor
15.05.2018
04:36:29
А почему не тот же кх?

Dmitry
15.05.2018
04:36:31

Andor
15.05.2018
04:37:38
Кликхауз за сотни нефти

vladimir
15.05.2018
04:38:45

Dmitry
15.05.2018
04:38:51
я думал может еще подумать в сторону стрима из кафки как вариант, но пока сложно предстваить

Andor
15.05.2018
04:38:53
Бд для аналитики

vladimir
15.05.2018
04:39:05

Dmitry
15.05.2018
04:39:19
кликхаус стоит денег?

vladimir
15.05.2018
04:39:34

Dmitry
15.05.2018
04:39:45
там опечатка была чтоль про метрику?
а, колоночная база вертика

Google

Dmitry
15.05.2018
04:40:12
хммм

vladimir
15.05.2018
04:40:29
Вертика умеет много много больше КХ, она умеет сложные джоины, и т.п.

Dmitry
15.05.2018
04:41:00
а, не опенсорс ок
ну тогда можно и в динамодб по идее
пока обьемы не большие, сильно усложнять не хочу. просто представить как складывать вещи типа "10:00 произошло событие", 11:00 произошло событие 2
по сути лог
кликхаус по идее норм пойдет для такого как раз... да.
сделать базы по датам и норм будет. как я понимаю

vladimir
15.05.2018
04:43:11
Для этого достаточно графита, без агрегации вообще

Dmitry
15.05.2018
04:44:13
у меня influx ща, для простоты работы пока что. думаю просто делать анализ и складывать обратно в базу events. время-тип события (ENUM какой-нить)

Admin
ERROR: S client not available

vladimir
15.05.2018
04:44:36
Тебе потом что от этих данных надо? На графики их выводить? Алерты по ним получать?

Dmitry
15.05.2018
04:45:10
да + опять же использование в прогнозироании
пока простейшие алгортимы отклонения и прогнозирования
ну аналитика итд тоже.
типа в календарь какой-то вывести

vladimir
15.05.2018
04:47:12
По рваным событиям, которые ещё и редкие - это та ещё задачка

Dmitry
15.05.2018
04:47:46
события достаточно регулярные, раз в день 1-2-3 раза
это так, проект выходного дня, если что) (пока)

vladimir
15.05.2018
04:49:03
Для прогнозирования можешь посмотреть вот эту штуку:
https://github.com/facebook/prophet

Google

Dmitry
15.05.2018
04:49:23
а, слыхал. на R вроед
когда-то на influx days чувак показывал неплохие демки. там конечно дофига математики, но мне для базового применения нормально.

vladimir
15.05.2018
04:50:12

Dmitry
15.05.2018
04:50:22
аа, а вот это прикльно.
ну в итоге, буду складывать обратно в influx тогда

Yury
15.05.2018
04:54:36
ну тогда можно и в динамодб по идее
Стоит померять поток данных. Сколько райтеров надо будет. И сколько места это займет через полгода, учитывая что динамо не tsdb и у нее скорее всего все плохо с хранением метрик.

vladimir
15.05.2018
04:56:22

Dmitry
15.05.2018
04:56:32
?

vladimir
15.05.2018
04:57:31

Dmitry
15.05.2018
04:58:05
Возможно.
Но я именно с событиями думаю. Их надо быстро вытакюскивть будет

vladimir
15.05.2018
04:59:44
КХ быстро вытаскивает ;)

Dmitry
15.05.2018
05:03:31
Да. Хочу провести эксперимент пока. У меня один источник данных так что все будет хорошо ?
Пока будет инфлакс с двумя базами, налажу поток дальше посмотрим
Можно будет оставить инфлакс для текущих данных а остальное будет в кликхаус сливать
Благодарю за мысли, расскажу потом че получилось если кому интересно будет

Andor
15.05.2018
06:01:49
есть любители извращений?
мне хочется метрики из Storm получать в прометей

Алексей
15.05.2018
08:11:10
Evgeny Lazin а ты в четверг на мониторингом митапе будешь?

Evgeny
15.05.2018
08:15:09

terry
15.05.2018
08:37:15
Добрый день. Может кто подскажет канада по BigData ?