
Artem
10.01.2018
20:01:55
только не надо про ожидания, я не в том смысле ?

Roman
10.01.2018
21:21:30

GithubReleases
10.01.2018
21:32:27
https://github.com/influxdata/telegraf/releases/1.5.1 was tagged
https://github.com/influxdata/telegraf/releases/1.5.1 was tagged

Google

GithubReleases
11.01.2018
00:12:32
https://github.com/influxdata/telegraf/releases/1.5.1 was tagged

yuyu
11.01.2018
08:16:29
Три раза - это кластерный релиз с кворумом? :-)

Evgeny
11.01.2018
08:53:29
clusterfuck release

Nklya
11.01.2018
10:03:08
А тем временем в докер чяте))
Ребят, подскажите как можно мониторить outofmemory у контейнера? Пробовали заббикс клиент, но он не стабильный, не продакшн ready. Есть ли готовые инструменты?

User ?
11.01.2018
10:08:38

Dmitry
11.01.2018
10:09:32
промышленность разная бывает

Nklya
11.01.2018
10:09:47
Коричневая например))

evix
11.01.2018
10:10:00
маркетологи заббикса называют заббикс промышленным стандартом, ссылаясь на маркетинговые исследования маркетологов заббикса

Dmitry
11.01.2018
10:10:00
если корень - МЫШ, то это от необходимости возить мышом

Алексей
11.01.2018
10:10:33

buttno
11.01.2018
10:10:57

Алексей
11.01.2018
10:11:28
в своём кругозоре.

Google

Алексей
11.01.2018
10:16:44
я сегодня видел на эту тему хорошую картинку. мне кажется люди после какогото момента (возраста ???) перестают принимать новые решения а просто побирают готовые варианты из уже принятых в прошлом решений.
поэтому парни правы. у них это индустриальный промышленный супер стандарт.

Виталий
11.01.2018
10:21:50
вот вроде tivoli говорят стандарт. а целую банду надо содержать внедрения, поддержки и даши в когносе рисовать. поддержка ibm еще желательно, потому что в их костылях надо еще уметь разбираться.

evix
11.01.2018
10:29:21
энторпрайзно, даже зубы заболели

Виталий
11.01.2018
10:30:02
в мегафоне есть, говорят
ранее циска оемила network manager как infocenter. и продавала его разным старым ссыкунам, которые считают всё с названием cisco 100% рабочим решением и только по этой причине покупают.

User ?
11.01.2018
11:29:48
Читаю про энтерпрайз и чувствую боль в боку. Что это со мной?

Nklya
11.01.2018
11:32:38
Нужно не читать. Надо погружаться))

Artem
11.01.2018
11:33:40
тогда и бок перестанет болеть, в голову отдаст
особенно ночью

Paul
11.01.2018
12:06:29

Vladimir
11.01.2018
12:08:15
Я уверен что у оракла тоже есть стандарт
И у sap

Andrew
11.01.2018
12:08:42
господа, а как ретеншен передать в докер прома?
и правильно ли я понимаю, что ретеншен нельзя менять потом?

отделение
11.01.2018
12:13:18

Andrew
11.01.2018
12:13:43
больше интересует в бОльшую сторону

отделение
11.01.2018
12:13:44
(ну или по крайней мере на 1.8 ещё так было)
тогда вообще без разницы, рестарт, ????, профит

Google

Andrew
11.01.2018
12:14:12
и вопрос какие есть методики архивирования данных?
Может их складывать куда-то можно для долговременного хранения
о, вот такую штуку нашел:
https://www.rapidloop.com/blog/prometheus-metrics-archiving.html
кто-то юзал?
» sop creates and manages three RocksDB databases to store all the metrics data. RocksDB provides fast startup times and LZ4 compression, resulting in < 1 byte/sample disk utilization which makes it suitable by itself for long-term archiving
звучит хорошо

Evgeny
11.01.2018
12:20:56
но не реалистично, т.к. LZ4 не настолько хорошо жмет временные ряды

Andrew
11.01.2018
12:22:17
почему нереалистично?
Только из-за того, что эффект от сжатия будет не столь хорош?
там rocksdb - лучше чем Пром в качестве persistent storage

Алексей
11.01.2018
12:28:11

Evgeny
11.01.2018
12:29:56
ну я пробовал, правда у меня датасет довольно сложный для сжатия, получалось 10 байт на точку (8 байт id, 8 байт метка, 8 байт значение)

Алексей
11.01.2018
12:32:15
@dvolodin тоже делал. и тоже примерно 10 байт.
ну а у яндекса же тоже zstd но колонками. жмется отлично

Sergey
11.01.2018
12:34:11
@Civiloid доброго дня, подскажи, пожалуйста, к кому с хитрыми вопросами по carbon-api обращаться

Vladimir
11.01.2018
12:34:21

Sergey
11.01.2018
12:34:27
окей

Vladimir
11.01.2018
12:34:48

Sergey
11.01.2018
12:35:06
Параметр конфига upstreams.backends внезапно не работает
По логам - внезапно используется дефолтный, захардкоженный
вот этот вот - https://github.com/go-graphite/carbonapi/blob/d76c2acd8065c78bdb1279694fb85d746f88b3b2/main.go#L1317

Vladimir
11.01.2018
12:36:03

Google

Sergey
11.01.2018
12:36:24
Name : carbonapi
Arch : x86_64
Version : 0.8.0
Release : 1

Evgeny
11.01.2018
12:36:33

Vladimir
11.01.2018
12:36:37
@tnt4brain 0.8.0 - это https://github.com/go-graphite/carbonapi/commit/c97ef18022696e8498a637f4e882fbff6a5da363, там требовался зиппер внешний
со следующего релиза в мастере будет stable ветка, а весь девелопмент уедет в dev :)
чтоб избежать путаницы )

Sergey
11.01.2018
12:38:23
ох ё.....
ладно, понял

Admin
ERROR: S client not available

Sergey
11.01.2018
12:39:07
пойду собирать мастер в пакет
благо спекфайл есть
уже

Vladimir
11.01.2018
12:39:18
там есть официальные пакеты )
https://packagecloud.io/go-graphite/autobuilds
rpm + deb, под центось 6, 7, дебиан 8, 9, testing, ubuntu 12.04 - 16.04

Artem
11.01.2018
12:40:23
о, забавно

Vladimir
11.01.2018
12:40:28
они правда собираются через fpm
а не спеки и дебники
но должно быть ок
и на центось6 там относительно старый кайро статически вкомпилирован

Google

Vladimir
11.01.2018
12:41:07
(просто потому что в центоси он еще старее)

Sergey
11.01.2018
12:41:13
не, у меня семёрка
за наводку спасибо, на худой конец смогу из пакета тупо исполняемый файл свежий выдрать
@Civiloid помогло, благодарю!
а теперь след. вопрос: данные отдаются с дискретностью в минуту - это где-то захардкожено? сыплются они туда с дискретностью в 10 секунд

Роман
11.01.2018
13:41:00
Направьте, пожалуйста, куда копать. Не относится непосредственно к метрикам, но может кто-то пользуется.
Есть fluentd, который собирает логи. Nginx даёт логи двух видов: access и error.
То есть:
$time [$level] $pid#$tid: *$cid $formatted_message
и
$remote_addr - $remote_user [$time_local] "$request" $status $body_bytes_sent "$http_referer" "$http_user_agent"
Как сначала это распарсить, а потом ещё и поделить на разные тэги?

Matvey
11.01.2018
13:41:38
гроком

Роман
11.01.2018
13:41:39
Или сначала поделить, а потом парсить?

Matvey
11.01.2018
13:42:11
http://grokdebug.herokuapp.com

Andor
11.01.2018
13:42:16
неужели нет готового решения для логов нжинкса-то?

Matvey
11.01.2018
13:42:44
готовое для слабаков

Pablo
11.01.2018
13:42:48

Роман
11.01.2018
13:42:55

Andor
11.01.2018
13:43:08
окметер - не решение, если что
как и любой саас

Nklya
11.01.2018
13:43:43
А почему бы в json не писать?
https://dvps.blog/dk-2/

Matvey
11.01.2018
13:43:43

Роман
11.01.2018
13:43:57
флюент вместо логстэша

Andor
11.01.2018
13:44:17
вообще я имел в виду, что неужели в гугле не находятся сотни статей о настройке fluentd для парсенья логов нжинкса