
Vladimir
29.03.2017
16:29:07
впихнуть его в продакшн и уже получать данные
и сразу начать переезд на что-то лучшее

Roman
29.03.2017
16:29:16

Vladimir
29.03.2017
16:29:19
если у задачи есть лимит времени в виде "вчера"

Google

Daniel
29.03.2017
16:29:20
если всплески активности короткие - очередь (буферизация) может помочь

ptchol
29.03.2017
16:29:49
Очередь?
таким образом, когда тебе нужно будет выгребать отдельно метрики отдельно эвенты у тебя просто появляется новый вид сабскрайбера который просто "фильтрует" события.

Vladimir
29.03.2017
16:29:52
эту задачу надо через что-то решать
очередь опять же не даст пролюбиться данным если у тебя вдруг пришла чОрная пятница и твое мобильное приложение стало генерить 10х эвентов, а через час все успокоилось

Roman
29.03.2017
16:30:38
У кафки есть демоны или лиснеры, которые реализуют протокол для приема сообщений? И экспортеры в ES, CH и Prometeus?

ptchol
29.03.2017
16:33:54
только одно ограничение это передача данных между болтами в процессе обогощения их. это может в некоторых случая оказываться очень дорого.

Vladimir
29.03.2017
16:34:53

ptchol
29.03.2017
16:35:06

Vladimir
29.03.2017
16:35:11
у кликхауса тоже батчи, мержи всякого там разного и т.п.
и он концептуально ровно под это делался

Google

Vladimir
29.03.2017
16:35:40
получать эвенты от пользователей, хранить их и делать запросы в реальном времени к этим данным

ptchol
29.03.2017
16:35:55
я имею ввиду как "бэкенд" для обработки данных из разных источников и обогощения их
чтобы не крутит 100500 сервисов маленьких читающих из кафки.
и делающих как бы одно и тоже но чуть по другому.

Roman
29.03.2017
16:36:29
Владимир, почему ты считаешь Эластик более легким для вхождения чем Кликхаус?

Vladimir
29.03.2017
16:37:15
у кликхауса пока с этим не так гладко

Pavel
29.03.2017
16:37:48
да

Vladimir
29.03.2017
16:50:16
Но в случаи таких вещей надо более полное условие - какие прикидки по объемам и росту, сколько времени есть, сколько разработчиков есть
и т.п.

Pavel
29.03.2017
16:51:09
кстати все советы говно
@RShishkin а тебе сервис Амазона какой-нить не проще заюзать?
снимает геморрой на раз-два-три
как по мне, если задача эпизодическая проще сделать на чужой инфраструктуре

Roman
29.03.2017
17:26:47
Но я бы не хотел на серверной разработке застрять, лучше запустить что то из готовых компонентов.

Pavel
29.03.2017
17:28:29
ну вот амазон, да
куча народу его юзает для мобильной разработки
перетащить на свою инфру можно всегда.

Roman
29.03.2017
17:29:24
Так о каком сервисе конкретно речь?

Google

Pavel
29.03.2017
17:30:27
http://docs.aws.amazon.com/redshift/latest/dg/c_best-practices-time-series-tables.html
как вариант

Roman
29.03.2017
17:35:39
А вот интересно, сообщение time series типа должно содержать таймсамп? Или сам факт посылки и есть время?
Просто в мобильных приложениях слать единичные сообщения совсем некошерно.

Pavel
29.03.2017
17:39:54
ну формально почти любое сообщение - это почти тайм сериес
если там внутри метрики :)
если ивенты, в принципе тоже, но кейс - уже другой

Vladimir
29.03.2017
18:01:01
Не забывай что сообщение будет бродить по сети
Сколько то
Люди прекрасны.

Pavel
30.03.2017
10:14:44
безусловно :)

Vladimir
30.03.2017
10:14:56
Каждые 2 минуты прилетает запрос, считывающий 16000 метрик за 24 часа, посекундных. Потом делающий математику над этим. Фишка в том что сырые данные весят 6ГБ, а ответ человеку в json'е, текстом весит 9кб
запрос выполняется всего 44 секунды...

Pavel
30.03.2017
10:15:43
"программисты" :)

Zhenia
30.03.2017
10:18:16
серверу там не плохеет?

Vladimir
30.03.2017
10:18:27
да чо ему станется, он же железный
(видиом так думает человек делающий этот запрос)

Zhenia
30.03.2017
10:18:50
у меня вот, бекенд тянет из базы все данные о пользователе
и только потом применяет лимит

Google

Vladimir
30.03.2017
10:19:03
ну там тоже что-то такое
запрос вида foo.bar.*.count.*
на который потом навешивается exclude

Zhenia
30.03.2017
10:19:22
и удивляются когда при 20 тысячах пользователей база шлет их нахуй

Vladimir
30.03.2017
10:19:34
и данные еще с summarize('5min')

Zhenia
30.03.2017
10:20:07
иногда жалко что людей бить нельзя

Vladimir
30.03.2017
10:20:59
да

Zhenia
30.03.2017
10:21:28
я кстати запорол ваши тесты, как мне кажется

Vladimir
30.03.2017
10:21:58
мне кажется что нужно закупить коробку больших чорных резиновых членов и таким людям приходить и бить ими по щам пока не поймут что так делать нельзя
но низя (

Admin
ERROR: S client not available

Zhenia
30.03.2017
10:22:20
это нужно все купить капы еще
стоматология - жутко дорогая нынче

Paul
30.03.2017
10:22:48

Vladimir
30.03.2017
10:23:17
просто чтоб было обидно

Paul
30.03.2017
10:23:33

Vladimir
30.03.2017
10:24:03
это графит, у него нет квот :(

Zhenia
30.03.2017
10:24:44
а они один на тачке?

Vladimir
30.03.2017
10:25:02
не, тачек много

Google

Vladimir
30.03.2017
10:25:06
но это не спасает
потому что таких умных людей далеко не 1 штук

Zhenia
30.03.2017
10:25:36
тогда коробка нужна, да

Magistr
30.03.2017
10:34:39
@alexanderzobnin небольшой баг в цсс хитмапа, в темной теме текст чорный

Alexander
30.03.2017
10:35:31

Magistr
30.03.2017
10:35:36
да

Alexander
30.03.2017
10:36:28
Это не актуально, мы ее в основной репозиторий переносим: https://github.com/grafana/grafana/pull/7934
там уже исправлены эти баги

Magistr
30.03.2017
10:37:32
а спасибо

Михаил
30.03.2017
10:53:49
а поправьте меня пожалуйста
у меня есть node_exporter и я хочу снимать пакеты в секунду
rate(node_network_transmit_packets[1s])
не отдает дату
отдает только в варианте rate(node_network_transmit_packets[30s])
ЧЯДНТ?

Paul
30.03.2017
11:03:20
а с какой частотой ты опрашиваешь ноду?
разве с 1с?

Михаил
30.03.2017
11:04:33
хм

Zhenia
30.03.2017
11:05:05
как ты хочешь что бы оно рейтило?

Михаил
30.03.2017
11:05:25
я хочу pps
что бы мне отдавало)

Zhenia
30.03.2017
11:05:37
снимай раз в секунду

Александр
30.03.2017
11:05:49
раз в секунду, ну ты наркоман

Zhenia
30.03.2017
11:05:53
но все равно не отработает

Александр
30.03.2017
11:06:09
10 секунд снимает O_o

Михаил
30.03.2017
11:06:30
да мне можно и раз в 30 секунд
мне главное что бы оно отдавало пакеты в секунду
значение