@metrics_ru

Страница 246 из 681
Алексей
29.08.2017
21:57:30
слишком много /intel

а вот код pysmart читать не хочется

а еще публикация описывается в каждом плагине независимо.

https://github.com/intelsdi-x/snap-plugin-collector-haproxy/tree/master/examples/tasks

Google
Алексей
29.08.2017
21:59:32
два таска

с переопредеенной секций Publish

Алексей
29.08.2017
22:01:39
телега научилась портить линки

https://github.com/intelsdi-x/snap-plugin-collector-pysmart/blob/master/snap_pysmart/__init__.py

sic transit
29.08.2017
22:03:20
kwargs.get("DeviceList")().devices не питонячий немного, ага

Алексей
29.08.2017
22:04:06
https://github.com/intelsdi-x/snap-plugin-collector-disk/tree/master/examples/tasks

диски надо определять раздельными тасками.

а не

о тут есть пример что публиковать можно в два дейстинейшена сразу.

Алексей
29.08.2017
22:06:59
ну чот на мой вкус не очень.

sic transit
29.08.2017
22:07:50
Кто то странный писал его

Google
Алексей
29.08.2017
22:10:26
ну. короче ентерпрайзненько

sic transit
29.08.2017
22:11:13
я бы еще не скоро в него посмотрел, спасибо

Алексей
29.08.2017
22:11:40
а я второй раз натыкаюсь

sic transit
29.08.2017
22:13:55
за деньги бы им рефакторинг хотя бы сделать

Алексей
29.08.2017
22:14:31
да не. парни явно пилят потому как альтернатив нет или в случае прома они их не устраивают

GithubReleases
29.08.2017
23:55:56
https://github.com/influxdata/telegraf/releases/1.4.0-rc3 was tagged

https://github.com/influxdata/telegraf/releases/1.4.0-rc3 was tagged

Sergey
30.08.2017
03:51:56
Я в нем ковырялся. Но пока не перешел

и у меня впечатление что они не очень понимают к чему хотят в конце концов прийти

потому что вон та картинка с процессингом метрик она прикольная но вместо коллектора с плагинами эта система превращается... превращается, в элегантные шорты

Vladimir
30.08.2017
06:28:21
Это не очень хорошо, когда ты вместо коллектора получаешь шорты

No1
30.08.2017
06:49:17
Вы хотите сказать не Интел, а индусы:)

Sergey
30.08.2017
08:09:25
там индусов в коммитерах нету практически

ну им один из товарищей предлагал чуть более компактный json (в 4 раза более компактный) спрашивая нафига вам вот поле вот это и вот это и почему так а не эдак... ему сказали - патамуфта

это я про плагин который в кафку льет

ему товарищь который плагин в еластик запилил сказал а ты сделай как я - добавь опцию - типа без нее будет вот такими пушистыми дефолтовыми деревьями слать, а с оной - компактно

ну и мне например не нравится ситуация что ты запускаешь скажем 5 плагинов сбора + 2 плагина обработки + 1 плагин посылки и в итоге у тебя на систему сбора метрик под сотню процессов, понятно что оно так то ничего особо не кушает, но после коллектд такую картину в htop наблюдать страннавата

а в остальном подход хороший, центральное ядро, плагины версионируются и т.д.

Matvey
30.08.2017
12:20:09
посоны, как правильно зарегэкспить

Google
Matvey
30.08.2017
12:20:11
tomcat_threadpool_connectioncount{instance=~"$host:.*", protocol=~”^(http|ajp).*"}

protocol бывает либо http-nio либо ajp-nio

может protocol=~"http|ajp.*"

о, точно

Kirill
30.08.2017
13:11:19
Всем привет. Стоит вопрос выбора хранилища для данных, по которым будет делаться аналитика. Пока что выбор пал на ClickHouse и Elasticsearch. Подскажите, пожалуйста, имеет ли смысл использовать что-либо из них, или стоит посмотреть на что-то совсем другое? Если выбирать из CH и ES, чему отдать предпочтение? Какие плюсы/минусы у каждого из них? Какие подводные камни могут ждать? Буду благодарен за любые советы и рекомендации. Понимаю, что тема возможно сама по себе холиварная, но очень надеюсь получить в ответ конструктив)

Vladimir
30.08.2017
13:13:06
@kmarenov никто ж не знает зачем тебе эти базы )

почему твой выбор на них пал

Vasiliy
30.08.2017
13:13:21
Если нужна аналитика на основе статистики, то clickhouse для вас.

Vladimir
30.08.2017
13:13:21
если просто как базу ради базы - рекомендую начать с SQlite :)

Paul
30.08.2017
13:13:49
Vladimir
30.08.2017
13:13:52
если SQlite не подходит - объяснить почему :)

я бы еще понял с постгреса
от простого к сложному )

Paul
30.08.2017
13:13:57
а то это как монго предлагать :)

Vladimir
30.08.2017
13:14:00
sqlite проще

я короче провоцирую человека на "объясни что тебе надо"

Kirill
30.08.2017
13:14:28
Если нужна аналитика на основе статистики, то clickhouse для вас.
да, аналитика на основе статистики по большому количеству событий. по сути по логам, можно сказать

Vladimir
30.08.2017
13:14:30
пока не объяснил - sqlite ему ок в моем понимании

Kirill
30.08.2017
13:14:46
постгрес уже не справляется)

отчеты по минуте строятся

Vasiliy
30.08.2017
13:15:24
Мы с постгресса ушли на кликхаус, так как постгресс долго обрабатывал статистику.

Google
Vasiliy
30.08.2017
13:16:52
Производительность возросла в 15-20 раз.

Vladimir
30.08.2017
13:18:09
@kmarenov вопрос в том что надо ) clickhouse хорош как аналитика по хорошо и строго структурированным данным

с выверенными индексами

и пониманием какие запросы делаются

Kirill
30.08.2017
13:18:20
мне вот говорят, что вроде у эластика богатые возможности для аналитики, сам язык богат такими возможностями

Vladimir
30.08.2017
13:18:24
если все это есть - будет хорошо

эластик в общем помедленее будет, зато ок даже если у тебя нет толком структуры

Admin
ERROR: S client not available

Vladimir
30.08.2017
13:18:48
я даже рискну предположить что он будет хуже постгреса

по скорости

но лучше по гибкости

но запросы вам виднее

и опять же выверенные индексы порешают, но данные разрастутся

на самом деле провести эксперимент думаю не сложно вам будет - запишите данные и туда и туда

и погоняйте типичные запросы

Vasiliy
30.08.2017
13:19:36
Если хорошо сбалансировать эластик по индексам, то у постгресса он выиграет, но надо сидеть и настраивать.

Kirill
30.08.2017
13:19:38
у приятеля в компании эластиком делаются отчеты по 14 млрд событий (17 тб данных), всё молниеносно работает

погонять мы можем, но интересно узнать мнение опытных людей

Производительность возросла в 15-20 раз.
а были какие-нибудь проблемы? подводные камни?

Google
Zhenia
30.08.2017
13:22:23
ну выше ж написали, запрос расплывчат, уточните

кликхаус и еластик немного про разное все же

Kirill
30.08.2017
13:24:38
у нас по сути одна широкая таблица, туда пишутся события. нужно по ним делать агрегирующие выборки разные, статистические отчеты всякие

событий не сказать что прям очень много, но несколько миллионов за месяц набегает

постгрес начинает задыхаться

Vasiliy
30.08.2017
13:26:10
а были какие-нибудь проблемы? подводные камни?
БД четкая - время-значение, по другому никак: основная колонка обязательно время. Очень он любит память, пришлось размер памяти увеличить в 2 раза, но бережлив к диску. Писать надо большими кусками, только тогда будет профит.

Vladimir
30.08.2017
13:27:46
напомню что по КХ есть специальный групчатик

https://t.me/clickhouse_ru

он же официальнй сапорт канал

Sergey
30.08.2017
13:33:08
Евгений
30.08.2017
13:34:13
а у тебя?
у меня алерты настроены, а для красоты grafana есть

Sergey
30.08.2017
13:36:29
Так ни там ни там ты не увидишь сколько у тебя процессов порождает исходный демон. Ну если только ты специально это собирать не будешь и триггер повесишь (понятия не имею нафига но пусть).

No1
30.08.2017
13:39:17
"по сути одна широкая таблица" - распределенная таблица в clickhouse)

хочу спросить, а это щупал кто нибудь?https://github.com/influxdata/telegraf/tree/master/plugins/inputs/docker

No1
30.08.2017
13:42:41
извините, спасибо :)

sic transit
30.08.2017
13:43:02
И кажестся еще в DevOps

Vladimir
30.08.2017
13:43:35
@freeseacher эт, может стоит шапку сделать с базовыми ссылками? ) А то про КХ применительно к аналитике довольно часто приходят и спрашивают )

Страница 246 из 681