@metrics_ru

Страница 283 из 681
Andor
27.09.2017
08:19:31
оффтоп уже

Subbotin
27.09.2017
08:19:59
и смысл хранить их очень долго?
могут быть требования ебанутых менеджеров. может быть для разбора полётов.

Vladimir
27.09.2017
08:20:20
могут быть требования ебанутых менеджеров. может быть для разбора полётов.
можно исторические данные хранить в другом месте еще )

можно даже в тот же КХ впихнуть попробовать )

Google
Vladimir
27.09.2017
08:24:48
ну вощем эластики для много в день не ок, либо их надо сильно много
вероятно у нас много эластиков ) их точно сотни

Andor
27.09.2017
08:25:18
и это только для логов?

Vladimir
27.09.2017
08:26:20
Subbotin
27.09.2017
08:26:32
короче хранить логи в сжатых файлах и бегать по ним грепом это может быть вполне себе решение. подозреваю, что на фуллвью задачах греп с авк могут оказаться быстрее эластика

https://habrahabr.ru/post/267697/

Andor
27.09.2017
08:29:04
ну вощем если бизнес оплачивает радость, то никто не против :)

Vladimir
27.09.2017
08:30:46
короче хранить логи в сжатых файлах и бегать по ним грепом это может быть вполне себе решение. подозреваю, что на фуллвью задачах греп с авк могут оказаться быстрее эластика
если хочется "быстрее" всегда можно написать что-то на плюсах под задачу - оно вероятно будет быстрее всего. Но система должна быть просто достаточно хороша.

Subbotin
27.09.2017
08:33:55
всегда можно написать на асме ещё быстрее. вопрос баланства удобства/скорости разработки/скорости выполнения. если юзеры 10 лет дрочат консоль и grep с awk у них на кончиках пальцев, а скорость выполнения имеет средний приоритет, а время на разработку своего приложения на плюсах огромно, то вариант "складывать рсинком и грепать" может взять 2.5 пункта из 3.

и существенно обойти эластик

Andor
27.09.2017
08:34:30
почему рсинком?

rsyslog'ом

Subbotin
27.09.2017
08:36:08
тоже есть плюсы и минусы

Google
Nklya
27.09.2017
08:36:15
Пока логи будут надрачиваться грепами, будет продолжаться треш с задачами в жире от менеджеров и всех остальных на инженеров с запросами погрепать логи. Вместо того, чтобы тот, кому нужно посмотреть логи, открыли кибану и посмотрели

Subbotin
27.09.2017
08:36:29
рсислог плохо будет работать между датацентрами

Nklya
27.09.2017
08:36:38
И про аналитику, дашборды и алерты по логам можно забыть

jagga
27.09.2017
08:38:39
как решать задачу выгрузки пары гигов логов в кибане/еластике?

Subbotin
27.09.2017
08:39:06
нет. "не пихать логи целиком в эластик" и "иметь статистику по логам" не взаимоисключащие параметры.

Subbotin
27.09.2017
08:40:51
ну я уже лет 5 этим не занимался, но вроде рсислог либо проёбывает логи при нестабильной связности между серверами, либо встаёт раком на той машине с которой отправляют

Alexander
27.09.2017
08:40:57
странно, как же он, бедняга, из азурки сюда логи гоняет ...

Dmitry
27.09.2017
08:41:14
все просто - связность стабильная

Andor
27.09.2017
08:41:18
rsyslog умеет более одного варианта im-плагинов и om-плагинов

не только протоколом syslog

Alexander
27.09.2017
08:41:39
а что, очередями уже не модно пользоваться?

omelastic, если что ?

Subbotin
27.09.2017
08:42:08
ну ок. возможно. но наверняка можно найти ещё плюсы рсинка перед рсислогом

Andor
27.09.2017
08:42:10
omrelp

omkafka

rsync'у надо файлы

Subbotin
27.09.2017
08:42:45
так речь же о файлах и была

Andor
27.09.2017
08:43:00
не, файлы на хранилище, а не на источниках

Volodymyr Kostyrko
27.09.2017
08:44:42
Ну если фс умеет сжатие не вижу проблем с хранением и грепом.

Google
Subbotin
27.09.2017
08:50:17
у меня был демон на одной из работ, который полнотекстовый поиск с поддержкой регулярных выражений по 6 террабайтам сжатых логов на одной машине делал за 20 секунд. логи лежали файликами по 50 мегабайт.

yuyu
27.09.2017
08:56:04
у меня с ним проблема , на 48 портовой циске , слишком много интерфейсов snmpwalk выполняет 50 сек , ну и конечно нагружает свитч
48 портов это мизер. 50 сек - аномально долго. В принципе поллер в telegraf нормально должен тянуть. Можно ещё на collectd посмотреть.

Konstantin
27.09.2017
08:56:36
вот и я о том же , пока копаюсь в экспортере пытаюсь понять почему так

при том что микротики в принципе нормально реагируют за 1 сек

Subbotin
27.09.2017
09:53:39
@mr_tron можно вместо времени взять Int64 поле и хранить unixts с наносекундами
ну так ты предлагаешь взять кликхаус вместо прометеуса?

Vladimir
27.09.2017
09:53:55
ну так ты предлагаешь взять кликхаус вместо прометеуса?
я предлагаю решение проблемы timestamp'ов

что брать - тебе решать

ты лучше задачу знаешь

Subbotin
27.09.2017
09:55:50
ну вот я приблизительно описал. ещё есть ньюанс, что сперва данные будут в одну копию базы данных. а потом выгружаться оттуда в общее хранилище. ну грубо говоря в поле в одну базульку и чтобы можно было сразу анализировать. а потом приехали к интернету и оно сэкспортировалось и закачалось на сервера. это пофиг на ком делать?

Subbotin
27.09.2017
09:58:19
ха. пост пропал

Vladimir
27.09.2017
09:58:32
я помню что там было что-то в духе 50 раз в секунду опрашивать 50 железок

и получать 10 метрик с каждой

кажется такое сможет хоть в txt файлик и скрипт на питоне

Subbotin
27.09.2017
10:00:01
ну основная идея что метрики связанный. тоесть в эту милисекунду было такое-то ускорение по оси икс, по оси игрек такое-то и по z такое-то. и их наверное стоит писать все вместе, а не как 3 разных метрики. или я заблуждаюсь?

кажется такое сможет хоть в txt файлик и скрипт на питоне
ну вот я счас пишу в файлик пока у меня один девайс. могу взять sql базу данных.

Google
Vladimir
27.09.2017
10:00:39
ну можно так, да

Subbotin
27.09.2017
10:01:21
хранить вечно и прикручивать новые и новые алгоритмы обработки и построения отчётов

Vladimir
27.09.2017
10:01:34
с прометеем у тебя возникнут некоторые небольшие сложности с "хранить вечно" как минимум

Subbotin
27.09.2017
10:02:37
тоесть если у меня за час с 10 девайсов получается 200 мегабайт данных, то за 24 часа со 100 будет получаться 48 гигов. и это только один набор девайсов. а хорошо было таких наборов было сотни

Vladimir
27.09.2017
10:03:11
раз данные хорошо структурированны, то КХ должен нормально работать на такое

как хранилка

Subbotin
27.09.2017
10:03:57
ну я пробовал пихать в постгрес.

Vladimir
27.09.2017
10:04:08
timestamp в int64, данные в чем там тебе надо, 1 измерение - 1 столбец, ключ по timestamp'у как минимум, но может еще как-то

Subbotin
27.09.2017
10:04:39
а кликхаус он просто колумн бэзед же типа касандры?

Vladimir
27.09.2017
10:04:54
угу, с закосом под аналитику

Subbotin
27.09.2017
10:06:41
а строить оттуда просто и красиво начальных этапов графички и дашборды получится графаной? ну типа из трёх векторов посчитать скалярное значение и отобразить статистику за последний час с квантилями?

Juff
27.09.2017
10:28:00
https://logz.io/blog/fluentd-logstash/

Че за зверь fluend

Gleb
27.09.2017
10:29:21
еще один из сотен клиентов для доставки логов

Konstantin
27.09.2017
10:29:43
в общем выяснилось , свитч stackable он выдает еще не подключенные группы (около 8 групп по 48 портов) .итого 18к элементов проходят snmpbulkwalk scrape_duration_seconds 45.746799354

Google
Gleb
27.09.2017
10:30:00
https://logz.io/blog/fluentd-logstash/
статья очень старая, сейчас надо искать что то вроде fluentd vs beats

в этом или с соседнем чатике уже здравую мысль высказывали - лучше сразу делать логи в json и ничего не придётся парсить прежде чем писать в эластиксёч и тогда будет вообще без разницы чем слать логи, ну правда логстеш потяжелее малость.

b0g3r
27.09.2017
10:33:00
Кстати, а можно ссылочку на соседний чат с логами? (вроде говорили есть такой)

Gleb
27.09.2017
10:33:25
ну про чат не знаю, вчера где-то был разговор

Vladimir
27.09.2017
10:33:38
может их даже несколько

Gleb
27.09.2017
10:33:47
тут получается что с кучей людей в 10-15 чатах сидишь и разговор между чатами может спокойно блуждать :D

Vladimir
27.09.2017
10:35:44
ptchol
27.09.2017
10:59:09
я правильно понял что это метадата сверху отдельной серии просто и всё ?

Alexander
27.09.2017
12:55:18
я правильно понял что это метадата сверху отдельной серии просто и всё ?
Тэгированные серии хранятся отдельно + БД с тэгами, по которой идет поиск. series1;tag=value1 и series1;tag=value2 - это 2 разные серии на диске.

terry
27.09.2017
13:02:10
если кто не видел

Vladimir
27.09.2017
13:02:26
егерь - боян дикий, он опенсорсный уже год как

он еще успел скорешиться с hawkular'ом )

за это время

Nklya
27.09.2017
13:07:59
Новое видео про TSDB https://www.youtube.com/watch?v=jCswlLsE3No&index=2&list=PLSE8ODhjZXjY0GMWN4X8FIkYNfiu8_Wl9&__s=51fbicfcj8csgnzyjpsb

Karey
27.09.2017
13:15:30
А этим кто-нибудь из присутствующих пользуется? Было бы интересно вкратце узнать про плюсы/минусы, т.к. про нее я только из этой лекции узнал)

Dmitry
27.09.2017
13:20:47
кто-то писал свои экспортеры на го для прометея?

Andor
27.09.2017
13:25:12
Писали

И на питоне

Страница 283 из 681