hdhog
hdhog
тоже не все так гладко ))
hdhog
вот предупреждение это в основном место на дисках
hdhog
а высокая это 90 % сервера требующие ребута из-за обновлений
Jenny
ясно
Dmitry
дайте под монгу темплейт хороший
Dmitry
чтобы не пилить
Dmitry
у перконы норм? а то я уже покувыркался с их плагинами для муськи
Dmitry
так, у перконы для монги и нет нихуя
Александр
http://monitoringartist.github.io/zabbix-searcher/ Ну может смешно. но тут был?
Dmitry
Dmitry
Ахуенный ресурс, не знал
Александр
Думал все о нём знают
Dmitry
Я тока недавно про забикс шару узнал
Александр
Как в той истории про уральских лесорубов и финские бензопилы
Serge
Доброго дня\утра всем! У кого-нибудь было такое?
Serge
Serge
Появилось после того, как задампил БД (PostgreSQL) и восстановил обратно на другом хосте
Serge
Как понял из куска кода, указанного в ошибке (include/blocks.inc.php:829), ошибка относится к таблице с последними событиями. Однако, эта таблица рисуется нормально и проблем с ней я не вижу
Jenny
а можно заслейвить эту базу со старой?
Serge
Старая сдохла :(
火影
Коллеги, доброго времени суток. Подскажите, кто-то пытался реализовать передачу данных от одного Zabbix в другой через какую-либо MQ шину? Или от агентов напрямую в шину, чтобы сервер читал эти данные..
Александр
MQ?
Juriy
MQ?
https://ru.wikipedia.org/wiki/%D0%9E%D0%B1%D0%BC%D0%B5%D0%BD_%D1%81%D0%BE%D0%BE%D0%B1%D1%89%D0%B5%D0%BD%D0%B8%D1%8F%D0%BC%D0%B8
Juriy
но вот зачем это надо заббиксу, большой вопрос
Дмитрий
mq не предназначен для передачи данных
Дмитрий
он нужен для передачи сообщений, требующих реакции нескольких сервисов
火影
коллеги, дано: два сегмента сети, между которыми обмен данными может быть только(без вариантов) через ibm mq шину. пытаюсь придумать, как мне всё же консолидировать данные мониторинга zabbix в одном из сегментов
火影
поэтому так
火影
Juriy
Juriy
но это тот еще костыль
火影
но это тот еще костыль
угу, я надеялся, что у кого-то уже есть более человеческое решение.. без экскрементов и совсем чуть синей изоленты
Александр
Добрый день. Подскажите пожалуйста, есть элемент данных. Отдает либо "1" либо "0", мне нужно создать еще один элемент данных, точнее два, который будет показывать длительность срабатывания "1" и "0". Как реализовать такое, не понимаю. Помогите пожалуйста.
Juriy
火影
Juriy
Коллеги, добрый день!
Кто-нибудь снимает метрики микросервисов со Spring Boot Actuator? Как вы это делаете?
Danil
Приветствую коллеги!
случилась такая проблема , необходимо получать трапы с портов коммутатора , и выводить определенную аварию при получение трапа с определенного порта.
Сделал правило обнаружения на первое событие - все ок , фильтрация по дескрипшену.
Делаю второе правило , с другим фильтром . вываливается ошибка "Элемент данных с ключом "snmptrap[.1.3.6.1.2.1.2.2.1.1.{#SNMPINDEX}]" уже существует у "DES1228""
Danil
как победить?
火影
коллеги, начну опрос отсюда. кто использует для своего #zabbix #postgresql, как вы добиваетесь ha баз?
Dmitry
о каких объемах идет речь
Dmitry
火影
о каких объемах идет речь
пока мы на этапе планирования и оцениваем по аналогам в других частях инфраструктуры.. ожидается что-то около 20к объектов мониторинга в прыжке и ~400 метрик на каждый объект... повторюсь - это на бумаге
火影
и какой частоте вставке
с учётом того, что многие метрики будут поминутно собираться - я сегодня накалькулировал 133+к значений в секунду.
Dmitry
мы просто при достижении 10k m/s (20k устройств) уже слезли с заббикс, отсылали метрики в opentsdb для исторических данных
за место zabbix-server поставили демон-алерт-менеджер, который мог запоминать только предыдущее значение, триггерил сам клиент (riemann-like), а демон принемал решение сообщать админам или нет и если да то кому
火影
мы просто при достижении 10k m/s (20k устройств) уже слезли с заббикс, отсылали метрики в opentsdb для исторических данных
за место zabbix-server поставили демон-алерт-менеджер, который мог запоминать только предыдущее значение, триггерил сам клиент (riemann-like), а демон принемал решение сообщать админам или нет и если да то кому
Я думаю, мы тоже вряд ли доживём до 20к девайсов с полноценными моделями здоровья именно в #zabbix, но до тех пор, чтобы выполнять заказы внутренних клиентов, надо как-то прожить, вот я и прикидываю, что заложить на первоначальном этапе, чтобы минимизировать вероятность факапа.. ha для db - один из вопросов
火影
@vadvmkn можно подробнее про стек, что у вас вышел?
Dmitry
opentsdb + самописный демон на golang с какой-то in-memory db
Dmitry
я бы сейчас на место golang вообще поставил tarantool
火影
@vadvmkn в нашем enterprise очень сложно протащить oss без коммерческой поддержки
Dmitry
tarantool мона купить
火影
火影
и сколько у вас хрантся исторические данные?:
Dmitry
они молодые и есть ощущение что комбайны, и что разобраться в их коде сложно
火影
то есть вы в opentsdb разобрались и сами закрываете возникающие проблемы?
火影
заняяятно
Dmitry
opentsdb - это java, на hbase + hdfs
火影
а презентация данных - графана?
Dmitry
да
火影
ой вей
火影
ну спасибо :) хотя мы ушли от темы, что делать с клятыми реляционными бд
Dmitry
да нет нормального решения
Dmitry
есть хипстота и rhel-кластер (Corosync/Pacemaker от clusterlabs но конкретно на rhel)
Dmitry
может есть конкретно для специфики заббикс
Dmitry
но насколько знаю - все на db
Гога
Коллеги, а avaya cs1000 кто-нибудь с заббиксом дружил по snmp?
Александр
Александр
Примерно так https://www.zabbix.com/forum/showthread.php?t=53305
Александр
Заодно научишься писать шаблоны
Гога
Спс
Александр
инфу по загрузке CPU. Состоит из 4-х компонентов:
1.3.6.1.4.1.6889.2.8.1.6.11
# G3-AVAYA-MIB::g3healthStaticOcc.0 = Gauge32: 0
1.3.6.1.4.1.6889.2.8.1.6.12
# G3-AVAYA-MIB::g3healthCallpOcc.0 = Gauge32: 0
1.3.6.1.4.1.6889.2.8.1.6.13
# G3-AVAYA-MIB::g3healthSysMgmtOcc.0 = Gauge32: 3
1.3.6.1.4.1.6889.2.8.1.6.14
# G3-AVAYA-MIB::g3healthIdleOcc.0 = Gauge32: 97
Гога
Мне по сути состояние е1 интерфейсов нужно
Александр
Я эту вашу аваю никогда не видел, так что ничего больше сказать не могу
Dmitry
Dmitry
@JennySel добавил - чет бесполезно