@metrics_ru

Страница 406 из 681
Sergey
28.12.2017
19:01:25
мая к вечеру тупить... в моем понимании дрилл даун это у тебя есть некий аггрегат и тыкая в него у тебя появляются подробности

Алексей
28.12.2017
19:02:08
ну да. ну вот есть у меня метрика {method="post"} это агрегат

а покрутить это подобавлять к нему другие теги. поделить чо нить на чонить

Sergey
28.12.2017
19:04:56
более тыкательно было у Дитера вроде... забыл как он там фронт обозвал... который метрикс2.0 но там привязка к графиту только

Google
Sergey
28.12.2017
19:05:22
ну и кибана... но она привязана к елке ессна

yuyu
28.12.2017
19:05:34
Алексей
28.12.2017
19:06:15
MySQL Postgres Vertica Oracle Microsoft SQL Server SQLite Greenplum Firebird MariaDB Sybase IBM DB2 Exasol MonetDB Snowflake Redshift

yuyu
28.12.2017
19:06:42
Совсем не графана, но уметь кое-что.

Алексей
28.12.2017
19:06:43
промчик обделли

Sergey
28.12.2017
19:07:29
http://vimeo.github.io/graph-explorer/ вот этот

промчик молод горяч могуч и проч.. :)

Алексей
28.12.2017
19:09:13
и совсем не sql ага да

yuyu
28.12.2017
19:09:32
meta-queries-datasource плагин ещё есть. Но это малость другое.

Sergey
28.12.2017
19:10:45
по идее если ты у приложения метрики придумал то ты знаешь что с ними дальше делать :) может это в тебе говорит капелька лени?

yuyu
28.12.2017
19:12:19
Excel многое умеет :-) Сгодится?

Алексей
28.12.2017
19:13:03
там с датасорсом таже беда

Sergey
28.12.2017
19:13:43
лей в кликхаус и таббиксом его таббиксом :)

Google
ptchol
28.12.2017
19:47:49
что б такой тыкаешь и проваливаешься в другой срез
в графане это назывется adhoc filter, разновидность temaplte variable но помоему срабатывает оно только в случае если датасорс элатсик но можешь попробовать для прома.

Алексей
28.12.2017
19:48:02
нет не могу попробовать

Evgeny
28.12.2017
19:48:13
что значит вот это странное сообщение?: WARNING in /home/dev/akumuli-datasource/partials/query.editor.html Module build failed: Error: The path for file doesn't contain relativeTo param at Object.module.exports (/home/dev/go/src/github.com/grafana/grafana/node_modules/ngtemplate-loader/index.js:38:15) @ ./public/app \.html$ @ ./public/app/core/partials.ts @ ./public/app/core/core.ts @ ./public/app/app.ts @ ./public/app/index.ts query.editor.html вот тут - https://github.com/akumuli/akumuli-datasource/blob/master/partials/query.editor.html

Алексей
28.12.2017
19:48:15
ибо датасорс ансапортетд

ptchol
28.12.2017
19:49:50
ну тогда увы.

Alexander
28.12.2017
19:51:03
Алексей
28.12.2017
19:51:31
нее. торкель их закрывает со скорость свиста :)

хоп и клосед

а поговорить ?

Alexander
28.12.2017
19:53:02
?

Алексей
28.12.2017
19:53:42
не так то он прав. но мне то не легче :)

Evgeny
28.12.2017
19:57:04
я не осилил grunt build и просто кладу свой датасорс в каталог public/app/plugins/datasource графаны и потом в корне вызываю npm run build, после чего копируют dist из public_gen (или как его там), в общем, раньше это работало а сейчас - перестало :(

короче, проблема в неумении программировать

typescript template для плагина графаны у меня не собирается почему-то, может имеет смысл переписать все на js?

Ivan
28.12.2017
20:04:30
а поговорить ?
Да что вы говорите! ;)

Alexander
28.12.2017
20:06:38
я не осилил grunt build и просто кладу свой датасорс в каталог public/app/plugins/datasource графаны и потом в корне вызываю npm run build, после чего копируют dist из public_gen (или как его там), в общем, раньше это работало а сейчас - перестало :(
public_gen выпилили, теперь webpack все собирает в бандлы (большие файлы). Вот пример плагина на typescript, там можно взять файлики нужные (package.json и Gruntfile.js)

Evgeny
28.12.2017
20:08:42
Вероломно, без объявления войны, выпили public_gen!

Alexander
28.12.2017
20:09:05
а поговорить ?
Сегодня вот на такой issue наткнулся. Вот это я понимаю, тема для разговора https://github.com/HubSpot/drop/issues/119

Google
Alexander
28.12.2017
20:15:13
хертмап для прома! йуху!
Да, попробую запилить

Subbotin
28.12.2017
20:23:43
Граждане, а вот вопрос внезапный. А что проще всего заюзать для мониторинга домашних машинок и пары серверочков? Ну там чтоб по-максимому из коробки и само. Чтоб задетектило, что у тебя там рейд развалился или условный майнер завелся и цпу жрёт.

Это мои эротические фантазии или таки кто-то сделал?

Paul
28.12.2017
20:24:34
firehol netdata. Предельно простая штука

графики есть, алерты вроде тоже есть, ставится на раз-два-три

Subbotin
28.12.2017
20:28:37
спасибо. смотрится годно

а то у меня последние лет 5 стоял забикс давно настроенный, но я тут обнаружил, что оказывается он месяца 2 назад сдох и забыл меня об этом предупредить

George
28.12.2017
20:30:31
Мониторинг мониторинга !

Ivan
28.12.2017
20:39:27
Одним заббиксом можно замониторить все кроме заббикса.. двумя заббиксами можно замониторить вообще все

Ivan
28.12.2017
20:41:14
Paul
28.12.2017
20:41:26
а если они оба упадут?

заббикс надо каким-нибудь кактусом мониторить. А кактус - заббиксом

Алексей
28.12.2017
20:44:27
Но кактус не мониторинг а рисовалка графиков

Paul
28.12.2017
20:48:04
Но кактус не мониторинг а рисовалка графиков
у вас устаревшие сведения. Мониторинг там есть. Правда написан слегка... Необычным образом. Впрочем, как и весь остальной кактус

Алексей
28.12.2017
20:48:25
Thold ?

Paul
28.12.2017
20:48:42
он самый

Dmitry
28.12.2017
20:48:51
Я тут спрошу, возможно получу вербальных пиздюлей. Ситуация такая. У нас контора поставляет HPC кластеры со средней скоростю 1-3 кластера в месяц. В качестве мониторинга сейчас выбран заббикс (да-да, уже начинаю опиздюливаться) - быстро, недорого. Так как каждый кластер уникальный, то автоматическое дискавери от него очень кстати. Разные количество нод, разные вендора железа, RAID-адаптеры , разные хранилки из говна и палок (Lustre, GPFS, BeeGFS). Кроме того многие заказчики хотят HA из двух нод, а это значит pacemaker, drbd и приседания с фенсингом. Так вот вопрос. При количестве нод больше 500, заббиксу ожидаемо плохеет от метрик (Живем на mariadb, так как ее использует SLURM, тащить еще одну базу - заебемся в поддержке). Хочется переехать на что-то более быстрое модное молодежное (хотя бы попробовать), но пока как-то будущее безрадостное - долго руками конфигурять мониторинг под каждый кластер весьма уныло. А есть взять HA, то класть базу того же прома на DRBD... ну я не знаю...

George
28.12.2017
22:13:46
А постгре не спасает ?

Google
George
28.12.2017
22:13:55
Я не в курсе, просто проходил мимо :-)

Dmitry
28.12.2017
22:51:55
постгрю не хотим потому что не хотим еще одну базу. У нас и так уже есть монга и mysql на каждой инсталляции. а там еще сверху свои сервисы намотаны, которое все это используют: slurm, luna (самописаный супер-быстроый бареметал провижонинг на битторенте), zabbix. И толппа всяких других сервисов: named, dhcp, zabbix

Volodymyr Kostyrko
29.12.2017
01:09:46
У нас тоже хотели монгу. Показал постгресс и вопрос был закрыт.

Dmitry
29.12.2017
01:18:33
zabbix detected

Я тут спрошу, возможно получу вербальных пиздюлей. Ситуация такая. У нас контора поставляет HPC кластеры со средней скоростю 1-3 кластера в месяц. В качестве мониторинга сейчас выбран заббикс (да-да, уже начинаю опиздюливаться) - быстро, недорого. Так как каждый кластер уникальный, то автоматическое дискавери от него очень кстати. Разные количество нод, разные вендора железа, RAID-адаптеры , разные хранилки из говна и палок (Lustre, GPFS, BeeGFS). Кроме того многие заказчики хотят HA из двух нод, а это значит pacemaker, drbd и приседания с фенсингом. Так вот вопрос. При количестве нод больше 500, заббиксу ожидаемо плохеет от метрик (Живем на mariadb, так как ее использует SLURM, тащить еще одну базу - заебемся в поддержке). Хочется переехать на что-то более быстрое модное молодежное (хотя бы попробовать), но пока как-то будущее безрадостное - долго руками конфигурять мониторинг под каждый кластер весьма уныло. А есть взять HA, то класть базу того же прома на DRBD... ну я не знаю...
Ну а на кластер то поставить что-то можно? Что-нибудь с пушем сделайте типа telegraf или statsd. Сервер мониторинга, я так понимаю, вместе с кластером уезжает к заказчику?

Dmitry
29.12.2017
01:29:16
агентов можно присобачить каких угодно, конечно. "Кластер" - это 1 или 2 мастер-ноды, 1-2 логин-ноды, 1-2 сторадж-ноды и сотна-другая вычислительных нод. Часто бездисковые. Логин- и сторадж-ноды бывают опциональные, потому как для мелких кластеров (до 50 нод) это все живет на мастере. Вопрос как метрики конфигурять, собирать, и как хранить. И что б разворачивалось удобно, без боли и смс

Dmitry
29.12.2017
01:29:47
Ну а как софт разворачивается?

кроме самой оси

Dmitry
29.12.2017
01:31:11
если я скажу "никак" то это будет надалеко от правды - module-environment наше все. Никаких новомодных докеров. Только хардкор с LD_LIBRARY_PATH

Это стандарт де-факто в отрасли. Потому как латенси, 100% загрузка цпу и памяти одной задачей с MKL/Blas

Admin
ERROR: S client not available

Dmitry
29.12.2017
01:32:24
А как насчет попробовать доавить прослойку типа Ansible?

Я так и не понял, что именно говорит "хочу пакеты htop и ntp"... Что там за ОС то, что-то человеческое или enterprise типа hp-ux?

Ansible досаточно гибкий и работает почти со всем что поддерживает ssh и "относительно" свежий питон

Dmitry
29.12.2017
01:36:19
Анзибль у нас используется при начальной установке. А на нодах анзибль нахер не нужен, потому как медленно это для 500 нод. Если каждая нода будет тянуть каждый раз пакеты с мастера мы каждый кластер будум по месяцу разворачивать. Потому что довольно часто надо перезагрузить все ноды с каким-нибуд хитровыебаным параметров в кернел-модуле. Сейчас у нас торрент используется для образов - полтыщи бездисковых нод поднимается за 5 минут после холодного ребута. При этом 3 минуты уходит на биос

ОС там вполне себе центос.

Dmitry
29.12.2017
01:38:03
Ок, тогда зашейте телеграф в образ. он как поднимется сам сообщит о себе

Dmitry
29.12.2017
01:38:22
Анзибль у нас на берегу используется - мы им образы готовим. Я честно говоря не совсем понимаю как от мониторинга мы к анзиблю пришли :)

а что с тем телеграфом делать-то? куда он слать будет?

Dmitry
29.12.2017
01:38:50
Ну разговор о разворачивании мониторинга, не?

Google
Dmitry
29.12.2017
01:39:00
Dmitry
29.12.2017
01:39:15
на том же мастере где все другие сервисы

Dmitry
29.12.2017
01:39:55
Ну вот там и поднимите графит (в случае с statsd) или influx. 500 нод думаю осилит

Dmitry
29.12.2017
01:40:45
а телеграф умеет в дисковери как З..? потому как у нас всякие APC, контроллеры, IPMI и прочая хурма в непредсказуемых комбинациях и вендорах

а на дрбд будет жить?

Dmitry
29.12.2017
01:41:39
ipmi умеет https://github.com/influxdata/telegraf/tree/master/plugins/inputs

M
29.12.2017
01:42:11
а телеграф умеет в дисковери как З..? потому как у нас всякие APC, контроллеры, IPMI и прочая хурма в непредсказуемых комбинациях и вендорах
может не менять ваш мониторинг, а попробовать внешнюю базу данных типа от aws, ну или кластер базы данных

Dmitry
29.12.2017
01:43:17
statsd тоже много чего умеет. вроде уже рекомендовали netdata.

а на дрбд будет жить?
агенты? легко. сам influx или graphite - хз

Dmitry
29.12.2017
01:47:01
ну сейчас у нас мониторинг откровенно "на отъебись", поставили З-пакеты, всключили дисковери, поставили все заблоны - оно там само найдет что мониторить, и самое главное, что находит и мониторит. Но сейчас потихоньку поднимается вопрос мониторить вообще ВСЕ, влючая джобы на нодах - метрики MPI, количество пакетов RDMA, прерывания и все что найдем. З точно сдохнет

Dmitry
29.12.2017
01:47:54
агенты? легко. сам influx или graphite - хз
Агенты будут жить на бездисковых вычислительных нодах (как у них со stateless, кстати). Меня болше сервер беспокоит

Dmitry
29.12.2017
01:48:49
Агенты... Есть агент- шлет данные. нету агента - нет данных. Главное чтоб идентификация нормальная была. имя хоста или что там.

типа так? https://github.com/influxdata/telegraf/tree/master/plugins/inputs/interrupts

Dmitry
29.12.2017
01:49:47
Dmitry
29.12.2017
01:49:47
я не 100% за телеграф, просто юзал, работает норм. Про то куда он это складывает - промолчу)

M
29.12.2017
01:50:27
типа cat /proc/interrupts
ну я имею ввиду это даже страшно представить, какую аналитику вы хотите извлекать из этого, вы ведь умрёте там

Dmitry
29.12.2017
01:51:30
ну я имею ввиду это даже страшно представить, какую аналитику вы хотите извлекать из этого, вы ведь умрёте там
Почему? если там просто цифры, и кардинальность ок... Должно быть вполне себе без проблем. шли все, а там разберемся. Нормальный принцип. Но для этого база должна быть хорошая.

M
29.12.2017
01:51:57
типа cat /proc/interrupts
если тебе нужна скорость и миллиард push метрик то нет ничего быстрее и лучше чем collectd->riemann ->graphite, долго, быстро, надёжно, очень гибко

Dmitry
29.12.2017
01:56:43
У нас задача в будущем приблизительно такая. Вот приехал кластер. Отдан местным админам. Админам похеру кто и что там запускает. А запускают студенты, например. Запускают что-то что дико неоптимизированное - работает ок на студенческом ноуте - давай сразу в кластер, чо там. вроде чуть быстрее. А то что это "чуть" всего 10% от того что можно на этих 30..100 нодах достичь - всем пох, потому что никто об этом не знает. Стоит задача профилирования. Но перед профилированием надо хотя бы понять, что косяк есть. То есть в базовом пакете - указать что проц не на 100% процентов загружен и памяти свободной дохера - это, разумеется легко. Дальше нам надо IB-фабрику мониторить - размеры пакетов, среднюю длину маршрута (если ноды в разных стойках - это плохо) и прочие кишки.

Dmitry
29.12.2017
01:58:11
инфинибэнд

Страница 406 из 681