
Алексей
08.02.2017
22:09:21
самый нагдый мониторинг сейчас это telegraf
он некоторым ненравится но дело далает
и может отдавать в чопопало данные
пром не исключение

Google

Михаил
08.02.2017
22:10:16
а как в него данные пушить?

Алексей
08.02.2017
22:10:45
нее
он сам собирает
и может куда нить отдать
или подождать пока пром заберет

Михаил
08.02.2017
22:11:12
пром это promdash?
или как его там

Алексей
08.02.2017
22:11:26
прометей

Михаил
08.02.2017
22:11:38
уф, пора спать видимо, завтра уже почитаю тогда)

Алексей
08.02.2017
22:11:41
http://prometheus.io/

Михаил
08.02.2017
22:11:45
да с ним знаком
я просто думаю что бы еще такое собирать, что явно указывает разрабу, что он криворук)

Алексей
08.02.2017
22:12:09
ну вот парни из прометея пошли фигачить по процессу на мониторинг каждого процесса

Google

Алексей
08.02.2017
22:12:25
а жти традиционно один бинарь котоырй собирает 100500 говн
ничего не собирать. в этом процессе ты будешь всегда проигравшим.
ибо у тя нет палки на графике до деплоя и после

Михаил
08.02.2017
22:18:41
как есть)

Алексей
08.02.2017
22:19:23
зато честно

Михаил
08.02.2017
22:19:54
яж говорю, большая организация. в любой не понятной ситуации "это инфраструктура пидоры"
а у нас ведь всё нормально(

Alex
08.02.2017
22:21:30
Я довольно тупой
Но я, кажется, придумал, как это вот легко пофиксить:
Please keep in mind that all metrics stored by this library are kept in a single shared dictionary (lua_shared_dict). While exposing metrics the module has to list all dictionary keys, which has serious performance implications for dictionaries with large number of keys (in this case this means large number of metrics OR metrics with high label cardinality). Listing the keys has to lock the dictionary, which blocks all threads that try to access it (i.e. potentially all nginx worker threads).
https://github.com/knyar/nginx-lua-prometheus
Подумав еще, придумал, как это пофиксить еще легче

Алексей
08.02.2017
22:25:23
ой а можно такой же но без луа ?
я отчего то не хочу луа в нижнкс

Alex
08.02.2017
22:25:44
Давай поговорим об этом
У меня есть такой же и без луа, но
Он сделан так, что считает метрики только с одного воркера
Чтобы считать с нескольких, его надо немного твикнуть
Точнее, просто переписать
Но тут возникает сразу два вопроса

Google

Alex
08.02.2017
22:26:43
Вопрос а) а имеет ли смысл целоваться в кино?
Собственно, не два вопроса
Один вопрос
Я готов за это взяться, да

Алексей
08.02.2017
22:27:03
ой а можно я глупости поговорю ? а может быть мониторить нжинкс через inc в memcache ?мне почему то всегда казалось это ахрененной идеей.

Alex
08.02.2017
22:27:35

Алексей
08.02.2017
22:27:49
совершенно ничем

Alex
08.02.2017
22:27:50
Кроме того, что у тебя не будет лишней сущности
Вот и я так думаю

Алексей
08.02.2017
22:28:06
кроме tcp коннекта к потенциально свалившиемуся мемкешу

Sergey
08.02.2017
22:28:11
https://www.nginx.com/blog/launching-nginscript-and-looking-ahead/

Alex
08.02.2017
22:28:38
А в том, где до языка байндинги есть

Alex
08.02.2017
22:29:15
Вообще, с возрастом я стал хейтером ебучим
Причем, широкого спектра действия
И вот что я хотел бы узнать
Мы знаем, что виртуальная машина луа тупо меньше любой джаваскриптовой в разы
НАХУЯ Сысоев взял не луа?

Sergey
08.02.2017
22:30:23
по ссылке написано тащемта

Alex
08.02.2017
22:30:34

Алексей
08.02.2017
22:30:35
mongo + express + angular+ nginx всё на js
вау such js

Google

Alex
08.02.2017
22:31:10
Ну да
Там и есть вранье

Sergey
08.02.2017
22:31:18
а в nginx Сысоев наврал на C, надо так понимать?

Alex
08.02.2017
22:31:33
Но это было давно

Pablo
08.02.2017
22:31:44
Нахрен вообще это в нем и в шмем все держать скажи мне

Alex
08.02.2017
22:33:00
Расскажи, ой
Ну, нам нужен RW lock
А если у нас нет RW lock, нам нужно сделать MVCC

Admin
ERROR: S client not available

Pablo
08.02.2017
22:33:19
А, словарь подменять, я понял

Alex
08.02.2017
22:33:32

Pablo
08.02.2017
22:33:38
Так и до in-shmem-memcached не далеко

Alex
08.02.2017
22:33:42
Угу
Собственно - он в nginx уже есть

Pablo
08.02.2017
22:33:51
Кажется это грешновато

Alex
08.02.2017
22:33:52
Там же slab allocator

Pablo
08.02.2017
22:34:00
Чой?

Alex
08.02.2017
22:34:01
Осталось только версии приколотить, и всё

Pablo
08.02.2017
22:34:27
Где слаб то конкретно
Еще тарантул можно впихнуть)

Google

Alex
08.02.2017
22:34:43
Унутре nginx

Pablo
08.02.2017
22:35:06
Для чего? Я то код не читал, архитектуру не смотрел
Чукча писатель потом что.
Где там слаб и для чего

Alex
08.02.2017
22:35:37
Там память на чанки нарезана
В самом nginx
Если я верно помню, размер чанка - 4Кб
И местный менеджер памяти

Pablo
08.02.2017
22:36:02
А вот вообще-то скажи мне нахрен это все вообще внутре держать (в шмем или где угодно еще) - я про счетчики и статс
Зачем ему это?

Alex
08.02.2017
22:36:12
Отдает эти чанки связным списком
Ну - можно извне

Pablo
08.02.2017
22:36:32
Почему не слать в lo по удп?

Alex
08.02.2017
22:36:32
Но тогда это будет push-based модель

Pablo
08.02.2017
22:36:38
Чем хуже то?

Alex
08.02.2017
22:36:41
Почему не слать? Можно слать
Ничем не хуже вообще
Просто push vs pull

Pablo
08.02.2017
22:37:04
А зачем тогда фиксить эти модули?

Alex
08.02.2017
22:37:11
Для тренировки
Моск-то есть, отчего бы не попробовать