@metrics_ru

Страница 425 из 681
Alexander
21.01.2018
16:59:04
points per second

Evgeny
21.01.2018
17:00:25
размер - под сотню ГБ, pps - в экспериментах - 14М/pps, но на практике не слышал чтобы этим кто-нибудь пользовался

Alexander
21.01.2018
17:03:05
Хм

сотня гигов это не много

Google
Alexander
21.01.2018
17:03:37
а вот например как отказоустойчивость на ней делать или шардинг?

M
21.01.2018
17:09:33
Последователи а grafana можно както скрыть какойто из graph через template ???

какой есть best practite чтобы показывать статистику о каждом сайте которые постоянно прибавляются , и так чтобы постоянно добавлялся сам graph внутри dashboard

Evgeny
21.01.2018
17:11:24
сотни гигов это десятки-сотни миллиардов точек, мне сложно такие эксперименты проводить, счет за AWS большой приходит :)

Alexander
21.01.2018
17:12:53
Evgeny
21.01.2018
17:13:02
отказоустойчивость пока никак, можно использовать EBS volume например и на этом уровне делать бэкапы, можно тоже самое делать на ZFS

M
21.01.2018
17:13:23
В template есть фильтр через регексп
но создавать и убирать graph разве он будет,

Evgeny
21.01.2018
17:13:27
можно писать в несколько мест одновременно

M
21.01.2018
17:14:10
Опять же все делается через темплейт
у меня есть template на каждый сайт отдельно и на все сразу , но я хочу чтобы dashboard отличался в зависимости выбраны ВСЕ или отдельный

Andrew
21.01.2018
17:16:13
А есть что-то там их scripted dashboards, оно умеет такое может?

M
21.01.2018
17:20:00
Google
Evgeny
21.01.2018
17:26:30
Бекапы это не HA, обычно надо защищаться от полного отказа нод.
у меня нет репликации данных пока, в проекте, который я делаю на основе Akumui это решается с помощью hot spare, агенты, которые пишут данные, будут иметь какой-то сторадж для восстановления (подозреваю что это будет локальная БД), но у меня тут конечно не гугл и данных мало

Andrey
22.01.2018
08:48:48
привет. а в prometheus можно использовать из коробки переменные сложенные в consul в качестве например endpoint куда нужно приходить за данными? условно у меня есть сервисы, которые хотелось бы в рамках одной и той же job обрабатывать, но при этом слушают они на разном порту и с разным endpoint

Andor
22.01.2018
08:50:15
попробуй

я с консулом не знаком, но думаю, что через металейблы есть всё нужное

Mykyta
22.01.2018
12:22:18
Привет всем. Хочу заюзать graylog. Мне нужно собирать сип-трейсы с серверов с kamailio и freeeswitch. Что лучше всего использовать в качестве коллектора? Точнее как это лучше всего организовать?

Vladimir
22.01.2018
13:12:01
Лучше всего не использовать graylog

Хотя, конечно, смотря, сколько событий в секунду.

Pavel
22.01.2018
13:16:31
Хотя, конечно, смотря, сколько событий в секунду.
Есть негативный опыт?) На скольких тысячах событий грейлогу становится плохо?

Vladimir
22.01.2018
13:18:58
http://www.highload.ru/2017/abstracts/3036.html

Andrew
22.01.2018
13:21:42
товарищи, а кто как проверяет доступность сервисов? Как это можно связать с Промом? Под проверкой сервиса, я подразумеваю - доступность порта tcp/udp, icmp, при этом проверка осуществляется не на целевом хосте, а например со стороны самого сервера Прома. Или тут лучше заюзать другой инструмент?

Shazo
22.01.2018
13:22:48
zabbix может и веб чекии порты)

Andrew
22.01.2018
13:22:59
blackbox_exporter?
о интересно, не смотрел.

zabbix может и веб чекии порты)
zabbix есть, хочется уйти от него. В идеале конечно свести все в одну систему, пусть и из нескольких элементов.

Perlovka
22.01.2018
13:30:20
Consul

Andor
22.01.2018
13:30:50
привет, Перловка!

Perlovka
22.01.2018
13:31:02
Ку )

Andrew
22.01.2018
13:31:25
blackbox_exporter?
спасибо, кажется реально то что надо.

Алексей
22.01.2018
13:32:31
темы про забикс за пределы канала плиз.

Google
Mykyta
22.01.2018
13:41:36
Хотя, конечно, смотря, сколько событий в секунду.
А что тогда лучше использовать? Мне просто хочется организовать централизованное место, чтобы хранить логи. Чтобы так с веб-мордочки зашел и нашел, что надо :)

Mykyta
22.01.2018
13:43:08
ELK?
На сам сервер с фрисвитчами не хочу жаву тащить

Andor
22.01.2018
13:43:23
судя по опыту Юры (по ссылке его доклад) "быстро" и "с веб-мордочкой" не бывает

Denys ??
22.01.2018
13:43:40
Andor
22.01.2018
13:43:47
быстрее всего оказалось писать логи на сервер с пачкой дисков просто рсислогом

Mykyta
22.01.2018
13:44:02
Зачем ее туда тащить?
А чем оно собирает данные с сервера, чтобы отправить его на сервер с логами?

Andor
22.01.2018
13:44:17
сислогом?

Denys ??
22.01.2018
13:45:01
оно в общем случае не собирает, не барское - в смысле не системы хранения логов - дело их собирать

Mykyta
22.01.2018
13:45:43
оно в общем случае не собирает, не барское - в смысле не системы хранения логов - дело их собирать
Не, ну это понятно. Я почему и задался вопросом, чем собирать сип-сообщения в грейлог

Denys ??
22.01.2018
13:45:50
A graylog разве сам собирает? 100 лет его не крутил уже

Andor
22.01.2018
13:46:32
грейлог не собирает, он приёмник

Denys ??
22.01.2018
13:46:57
Я б как раз на такую задачу graylog и попробовал. Там же не милярды тех сип логов по идее.

Maksim
22.01.2018
13:49:12
можно logstash сразу в эластик писать, или обязательно gelf надо?

Алексей
22.01.2018
13:50:32
быть может вместе всего этого дела надо юзать mtail

не всегда от логов нужны логи.

иногда от логов нужны графики. если нужны именно они то mtail вариант ага

Maksim
22.01.2018
13:53:34
сислогом?
filebeat>logstash>elastic

Sergey
22.01.2018
13:54:38
filebeat>logstash>elastic
или fluentbit>fluentd>(elastic||clickhouse)

Google
Maksim
22.01.2018
13:55:17
ну на вкус и цвет =)

Andor
22.01.2018
13:55:40
это если у вас есть роскошь хранить кучу логов локально и парсить внешним софтом

на практике (и судя по рассказам Юры) проще парсить на лету тем же сислогом

и пихать дальше в кафку например

разумеется это зависит от количества логов

M
22.01.2018
13:59:13
ребята а какой есть. експортер который мог бы мерить максимальную пропускную способность?

Admin
ERROR: S client not available

Georgiy
22.01.2018
14:00:26
пропускную способность... чего ?

Sergey
22.01.2018
14:14:46
Zloy Dobriy
22.01.2018
14:23:33
Алексей
22.01.2018
14:24:01
ануса, Гош)
не приветсвую такое общение на канале.

Zloy Dobriy
22.01.2018
14:24:12
больш не буду

наверное)

Semyon
22.01.2018
14:24:41
M
22.01.2018
14:24:45
пропускную способность... чего ?
есть два дата центра хочется знать что скорость между ними всегда соответствует минимуму

Zloy Dobriy
22.01.2018
14:24:51
Bogdan (SirEdvin)
22.01.2018
14:29:05
есть два дата центра хочется знать что скорость между ними всегда соответствует минимуму
Ну, можно просто померять максимальную и собирать текущую. Можно или через node_exporter, или если нужно строго от конкретных машин к конкретным, написать свой экпортер через tcpflow или что-то похожее.

M
22.01.2018
14:30:00
но я ещё не изучил все способы нравится prometheus вот и хочется к нему это как-то приспособить

Bogdan (SirEdvin)
22.01.2018
14:32:55
Ну, тут скорее всего надо будет написать экспортер, который будет делать тоже самое и хранить последнюю информацию.

Google
Bogdan (SirEdvin)
22.01.2018
14:33:03
Если вот прямо такая задача.

То есть, скажем, экспортер раз в 3 часа (или с любой другой переодичностью) будет страдать такой штукой, а всегда выдавать прому последний результат. Или можно под такое дело https://github.com/prometheus/pushgateway приспособить

Alexander
22.01.2018
15:27:48
Лучше всего не использовать graylog
Очень спорное утверждение. Я использую его в проде, около 2000 mps (временами до 4000 mps). В эластике около 1ТБ данных, все это на виртуалке крутиться. Из удобного есть дашборды, при необходимости можно прям из эластика в графаню закинуть данные. Есть что то лучше?

Bogdan (SirEdvin)
22.01.2018
15:29:33
loghouse?

Ну, есть шанс, что настолько детальный поиск, как дает еластик не всегда нужен и можно просто сложить или в loghouse или даже при помощи mtail завернуть в метрики.

Сергей
22.01.2018
15:30:54
альфа версия с одним экземпляром кликанутого дома?

Vladimir
22.01.2018
15:35:09
еще есть oklog который может быть интересно, но я пока не знаю ни одного человека, кто бы его щупал

GithubReleases
22.01.2018
19:34:30
https://github.com/yandex/ClickHouse/releases/v1.1.54342-stable was tagged

M
22.01.2018
19:34:36
Последователи помогите, как в прлметеус добавить подсчёт вместо одного хоста

Алексей
22.01.2018
19:35:00
sum() ?

Andrew
22.01.2018
19:35:39
count()? :)

Алексей
22.01.2018
19:36:06
такие вот прихожане ага.

M
22.01.2018
19:36:30
нет я имею ввиду в конфиг scrape job

вот типа вот так 192.168.0.0/24:9111

что-то такого)

Andrew
22.01.2018
19:37:07
чет я не понимаю вопроса

M
22.01.2018
19:37:08
или range

Andrew
22.01.2018
19:37:13
так не выйдет

Алексей
22.01.2018
19:37:16
поискать хосты через sd

Страница 425 из 681