@metrics_ru

Страница 133 из 681
Vladimir
29.03.2017
16:29:07
впихнуть его в продакшн и уже получать данные

и сразу начать переезд на что-то лучшее

Roman
29.03.2017
16:29:16
группировка и очередь
А протокол он не реализует? Protobuf ?

Vladimir
29.03.2017
16:29:19
если у задачи есть лимит времени в виде "вчера"

Google
Daniel
29.03.2017
16:29:20
если всплески активности короткие - очередь (буферизация) может помочь

ptchol
29.03.2017
16:29:49
Очередь?
таким образом, когда тебе нужно будет выгребать отдельно метрики отдельно эвенты у тебя просто появляется новый вид сабскрайбера который просто "фильтрует" события.

Vladimir
29.03.2017
16:29:52
А протокол он не реализует? Protobuf ?
Вопрос в том что всем этим базам 1000 инсертов по 1 строке хуже чем 1 инсерт на 1000 строк

эту задачу надо через что-то решать

очередь опять же не даст пролюбиться данным если у тебя вдруг пришла чОрная пятница и твое мобильное приложение стало генерить 10х эвентов, а через час все успокоилось

Roman
29.03.2017
16:30:38
У кафки есть демоны или лиснеры, которые реализуют протокол для приема сообщений? И экспортеры в ES, CH и Prometeus?

ptchol
29.03.2017
16:33:54
Вопрос в том что всем этим базам 1000 инсертов по 1 строке хуже чем 1 инсерт на 1000 строк
мы кстати вот смотрим на отдел датасантистов и на их storm. Он идеологически очень круто подходит. там как бы концепция батчевой обработки, весь код делится на "домены обработки данных" так называемые bolts. которые как раз могут масштабироаться и запускаться на нескольких нодах при необходимости.

только одно ограничение это передача данных между болтами в процессе обогощения их. это может в некоторых случая оказываться очень дорого.

ptchol
29.03.2017
16:35:06
а под какие задачи?
процессинг пользовательских эвентов.

Vladimir
29.03.2017
16:35:11
у кликхауса тоже батчи, мержи всякого там разного и т.п.

и он концептуально ровно под это делался

Google
Vladimir
29.03.2017
16:35:40
получать эвенты от пользователей, хранить их и делать запросы в реальном времени к этим данным

ptchol
29.03.2017
16:35:55
я имею ввиду как "бэкенд" для обработки данных из разных источников и обогощения их

чтобы не крутит 100500 сервисов маленьких читающих из кафки.

и делающих как бы одно и тоже но чуть по другому.

Roman
29.03.2017
16:36:29
Владимир, почему ты считаешь Эластик более легким для вхождения чем Кликхаус?

Vladimir
29.03.2017
16:37:15
у кликхауса пока с этим не так гладко

Pavel
29.03.2017
16:37:48
да

Vladimir
29.03.2017
16:50:16
Но в случаи таких вещей надо более полное условие - какие прикидки по объемам и росту, сколько времени есть, сколько разработчиков есть

и т.п.

Pavel
29.03.2017
16:51:09
кстати все советы говно

@RShishkin а тебе сервис Амазона какой-нить не проще заюзать?

снимает геморрой на раз-два-три

как по мне, если задача эпизодическая проще сделать на чужой инфраструктуре

Roman
29.03.2017
17:26:47
@RShishkin а тебе сервис Амазона какой-нить не проще заюзать?
Нет. У меня две цели. Чему то научиться и сделать свое, что можно продавать.

Но я бы не хотел на серверной разработке застрять, лучше запустить что то из готовых компонентов.

Pavel
29.03.2017
17:28:29
ну вот амазон, да

куча народу его юзает для мобильной разработки

перетащить на свою инфру можно всегда.

Roman
29.03.2017
17:29:24
Так о каком сервисе конкретно речь?

Google
Pavel
29.03.2017
17:30:27
http://docs.aws.amazon.com/redshift/latest/dg/c_best-practices-time-series-tables.html

как вариант

Roman
29.03.2017
17:35:39
А вот интересно, сообщение time series типа должно содержать таймсамп? Или сам факт посылки и есть время?

Просто в мобильных приложениях слать единичные сообщения совсем некошерно.

Pavel
29.03.2017
17:39:54
ну формально почти любое сообщение - это почти тайм сериес

если там внутри метрики :)

если ивенты, в принципе тоже, но кейс - уже другой

Vladimir
29.03.2017
18:01:01
Не забывай что сообщение будет бродить по сети

Сколько то

Люди прекрасны.

Pavel
30.03.2017
10:14:44
безусловно :)

Vladimir
30.03.2017
10:14:56
Каждые 2 минуты прилетает запрос, считывающий 16000 метрик за 24 часа, посекундных. Потом делающий математику над этим. Фишка в том что сырые данные весят 6ГБ, а ответ человеку в json'е, текстом весит 9кб

запрос выполняется всего 44 секунды...

Pavel
30.03.2017
10:15:43
"программисты" :)

Zhenia
30.03.2017
10:18:16
серверу там не плохеет?

Vladimir
30.03.2017
10:18:27
да чо ему станется, он же железный

(видиом так думает человек делающий этот запрос)

Zhenia
30.03.2017
10:18:50
у меня вот, бекенд тянет из базы все данные о пользователе

и только потом применяет лимит

Google
Vladimir
30.03.2017
10:19:03
ну там тоже что-то такое

запрос вида foo.bar.*.count.*

на который потом навешивается exclude

Zhenia
30.03.2017
10:19:22
и удивляются когда при 20 тысячах пользователей база шлет их нахуй

Vladimir
30.03.2017
10:19:34
и данные еще с summarize('5min')

Zhenia
30.03.2017
10:20:07
иногда жалко что людей бить нельзя

Vladimir
30.03.2017
10:20:59
да

Zhenia
30.03.2017
10:21:28
я кстати запорол ваши тесты, как мне кажется

Vladimir
30.03.2017
10:21:58
мне кажется что нужно закупить коробку больших чорных резиновых членов и таким людям приходить и бить ими по щам пока не поймут что так делать нельзя

но низя (

Admin
ERROR: S client not available

Zhenia
30.03.2017
10:22:20
это нужно все купить капы еще

стоматология - жутко дорогая нынче

Paul
30.03.2017
10:22:48
это нужно все купить капы еще
нет, не нужно. Пусть страдают.

Vladimir
30.03.2017
10:23:17
просто чтоб было обидно

Paul
30.03.2017
10:23:33
да чо ему станется, он же железный
поддерживаю подход Яндекса в данном вопросе. Ставим квоту и пусть че хочет, то и делает. Не влез - страдай.

Vladimir
30.03.2017
10:24:03
это графит, у него нет квот :(

Zhenia
30.03.2017
10:24:44
а они один на тачке?

Vladimir
30.03.2017
10:25:02
не, тачек много

Google
Vladimir
30.03.2017
10:25:06
но это не спасает

потому что таких умных людей далеко не 1 штук

Zhenia
30.03.2017
10:25:36
тогда коробка нужна, да

Magistr
30.03.2017
10:34:39
@alexanderzobnin небольшой баг в цсс хитмапа, в темной теме текст чорный

Alexander
30.03.2017
10:35:31
Magistr
30.03.2017
10:35:36
да

Alexander
30.03.2017
10:36:28
Это не актуально, мы ее в основной репозиторий переносим: https://github.com/grafana/grafana/pull/7934

там уже исправлены эти баги

Magistr
30.03.2017
10:37:32
а спасибо

Михаил
30.03.2017
10:53:49
а поправьте меня пожалуйста у меня есть node_exporter и я хочу снимать пакеты в секунду rate(node_network_transmit_packets[1s]) не отдает дату отдает только в варианте rate(node_network_transmit_packets[30s])

ЧЯДНТ?

Paul
30.03.2017
11:03:20
а с какой частотой ты опрашиваешь ноду?

разве с 1с?

Михаил
30.03.2017
11:04:33
хм

Zhenia
30.03.2017
11:05:05
как ты хочешь что бы оно рейтило?

Михаил
30.03.2017
11:05:25
я хочу pps

что бы мне отдавало)

Zhenia
30.03.2017
11:05:37
снимай раз в секунду

Александр
30.03.2017
11:05:49
раз в секунду, ну ты наркоман

Zhenia
30.03.2017
11:05:53
но все равно не отработает

Александр
30.03.2017
11:06:09
10 секунд снимает O_o

Михаил
30.03.2017
11:06:30
да мне можно и раз в 30 секунд мне главное что бы оно отдавало пакеты в секунду

значение

Страница 133 из 681