
Andrew
05.06.2018
09:43:32
hindsight в смысле

Alexander
05.06.2018
10:08:27

Алексей
05.06.2018
10:09:05

Alexander
05.06.2018
10:10:18

Google

Алексей
05.06.2018
10:11:58

Alexander
05.06.2018
10:12:06

Алексей
05.06.2018
10:13:05
поэтому мне кажется разумным подход с другой стороны. вместо выгрузки csv и крутения данных в ексельке считать что данные пришедшие по вот этой ссылке являются датасорсом для другой графаны
берем публичную графану указывам ссылку которая там отдает данные подсоываем в своюб графану. крутим :)

GithubReleases
05.06.2018
11:42:38
grafana/grafana was tagged: v5.2.0-beta1
Link: https://github.com/grafana/grafana/releases/tag/v5.2.0-beta1
Release notes:
[Download Page](https://grafana.com/grafana/download)
[Installation Guide](http://docs.grafana.org/installation/)
[Release Notes](https://community.grafana.com/t/release-notes-v5-2-x/7894)
* **Elasticsearch**: Alerting support [#5893](https://...
More

Alexander
05.06.2018
12:02:48
При мержде таблиц в grafana от influxdb можно, чтобы не учитывался определенный столбец?

Sergey
05.06.2018
13:29:41
@rlomonosov
Привет! а ты случайно не начал шалить с предварительной буферизацией записи в КХ? а ля вот с таким разрешением мы пишем в инмемори буффер/базу а вот с более грубыми начинаем распихивать уже по дискам

Roman
05.06.2018
13:57:53
а зачем? диск не справляется?

Sergey
05.06.2018
15:12:22
да вот интересно если таблица будет инмемори то время выборок с гокарбоном (инмемори) сравняется или будет все так же раз в 10 медленее
в КХ вот или появился или я только заметил штука под названием Buffer в первом приближении вроде это как раз параметризованный буфер с вытеснением в который можно очень быстро писать, а главное очень быстро читать

Roman
05.06.2018
15:43:57
ты таблички с хранением метрик в обратном порядке пробовал? они как раз и могут ускорить в те самые 10 раз

Google

Sergey
05.06.2018
15:48:12
не не пробовал, попробую

Roman
05.06.2018
15:50:39
пока у всех кто таки попробовал ускорение было значительное. иногда в десятки раз
оптимальную с моей точки зрения схему таблиц я реализовал тут https://github.com/lomik/graphite-clickhouse-tldr
там есть и примеры конфигов и запросы создания табличек. ну и вообще тестовый стенд можно одной командой развернуть

Sergey
05.06.2018
16:23:53
А можно порядок озвучить? вот выборку из примерно 5к метрик гокарбон выплевывает за 20мс, КХ(пока без обратных таблиц) - 300мс и ладно бы всегда так было, но эти запросы иногда "чуть чуть" не влезают в понятие КХ "небольшой запрос" и тогда оно падает на диски и вот тогда боль... до 15 сек.
Это все конечно не про один запрос, т.е. mps порядка 100к+ в сек

Vladimir
05.06.2018
17:56:57

Sergey
05.06.2018
18:06:25
Мой кейс решит перенос запроса а ля топ, макс и вот такое на сторону КХ(пока решается карбоном как быстрой молотилкой). Довольно много экранов из разряда ходим видеть топ 20 из 200—800+ метрик за полчаса, час — частенько КХ считает что в кеше он это не соберёт и лезет на диск(а оно точно ещё в кеше)

Evgeny
05.06.2018
18:08:59

Vladimir
05.06.2018
18:09:06
Но оно не в нем значит уже

Sergey
05.06.2018
18:11:55
Памяти под кеш выделено на полдня хранения, там логика в кеш лезем или нет зависит не от протухания по времени а просто от толстости запроса, может добавили настроек, но полгода назад было так.

Evgeny
05.06.2018
18:16:55
Я @rlomonosov писал про схему которую хотел собрать: метрики писать параллельно в carbon-ch и в go-carbon, но в go-carbon отключить whisper и оставить только кэш который отдаёт метрики по carbon-link. graphite-ch в свою очередь умеет ходить в carbon-link и быстро получать оттуда метрики. Логически схема должна работать но там проблема с реализацией carbon-link в graphite-ch как объяснил Роман

Roman
05.06.2018
18:17:18

Evgeny
05.06.2018
18:17:57

Sergey
05.06.2018
18:19:09
Uncompressed который

Roman
05.06.2018
18:28:33

Sergey
05.06.2018
18:29:22
Значит этот чатик не бесполезен )
На мелочевке прям реально спасает

Roman
05.06.2018
18:34:48
ну если начнет опять когда-нить тормозить, то попробую. после перехода на "реверсивные" таблички как-то все стало слишком хорошо и пока оптимизировать не тянет

GithubReleases
05.06.2018
19:14:35
influxdata/telegraf was tagged: 1.6.4
Link: https://github.com/influxdata/telegraf/releases/tag/1.6.4
Release notes:
Telegraf 1.6.4
influxdata/telegraf was tagged: 1.7.0-rc1
Link: https://github.com/influxdata/telegraf/releases/tag/1.7.0-rc1
Release notes:
Telegraf 1.7.0-rc1

Google

Sergey
05.06.2018
20:14:01
Хм.. надо пр дожать... хотя там ещё конь не валялся в сборщике

GithubReleases
05.06.2018
21:09:38
influxdata/telegraf was tagged: 1.7.0-rc1
Link: https://github.com/influxdata/telegraf/releases/tag/1.7.0-rc1
Release notes:
Arch
Platform
Package
SHA256
amd64
Debian
[`telegraf_1.7.0~rc1-1_amd64.deb`](https://dl.influxdata.com/telegraf/releases/telegraf_1.7.0%7Erc1-1_amd64.deb)
`5e6a5374d230e64c52fa94f9361dd29650cc8f94c9d25f1c36eab09d01eff5f7`...
More

Vladimir
05.06.2018
21:11:34
блин, надо подумать что делать с парсингом markdown'а от релизов телеграфа

Ivan
06.06.2018
06:19:25
Привет! Подскажите, пожал. какая настройка отвечает за удаление устаревших данных в кх? Если я ее изменю, у меня старые данные попавшие под критерий очистятся или только все новозаписанные будут учитываться?

Wom
06.06.2018
06:23:29

Ivan
06.06.2018
06:23:45
Ага, спасибо

Anvar
06.06.2018
07:50:21
здравствуйте, а тут можно спрашивать совета по мониторингу mysql/postgresql?) точнее, чем удобней мониторить за первомансом mysql и postgresql?

Andor
06.06.2018
07:50:43
про первое у перконы есть готовое

Igor
06.06.2018
07:51:45
про второе недавно видел эту штуку - https://github.com/ankane/pghero но не трогал, хз как она

Bogdan (SirEdvin)
06.06.2018
07:54:33
По поводу postgres есть такая штука: https://www.datadoghq.com/blog/postgresql-monitoring/

Anvar
06.06.2018
07:55:25
спасибо почитаю. По PMM, не куда ставить, нет AWS, docker и VMware :D
есть обычные vps :D

Ivan
06.06.2018
08:01:45
всем привет!
У меня такая проблема: есть несколько кластеров куба, в каждом есть прометей для сбора метрик.
Есть отдельный прометей, который собирает данные со всех кластеров.
У него такой конфиг:
- job_name: 'federate'
scrape_interval: 15s
scrape_timeout: 14s
honor_labels: true
metrics_path: '/federate'
params:
'match[]':
- '{job="kubernetes-cadvisor"}'
- '{job="kubernetes-service-endpoints"}'
static_configs:
- targets:
- '10.1.29.10:6677'
- '10.1.29.30:6677'
- '10.1.29.40:6677'
Со всех кластеров данные собираются нормально, а с одного периодически прерываются.
Все прометеи в кластерах настроены одинаково. Куб поднят тоже одинаково. Разница только в кол-ве нод - в проблемном кластере их 5, в остальных по 3.

Andor
06.06.2018
08:02:24
какую ошибку показывает?
15 секунд интервал - не слишком ли? вангую что оно просто не успевает докачаться

Ivan
06.06.2018
08:02:58
Никакую. Только state меняется с up на down

Admin
ERROR: S client not available

Ivan
06.06.2018
08:03:07
на пару секунд

Andor
06.06.2018
08:03:10
в таргетах чо написано?
на страничке таргетов написано почему даун

Google

Ivan
06.06.2018
08:03:27
вот в таргетах он и меняется
почему - нет

Andor
06.06.2018
08:03:48
вот зачем ты врёшь мне
вот у меня прямщас есть пара таргетов в дауне
пишет context deadline exceeded

Ivan
06.06.2018
08:04:55
про интервал - я так и не понял - пробовал cтавить больше - вообще ничего не приходит

Andor
06.06.2018
08:05:23
кстати интервал и таймаут можно выставлять одинаковыми

Ivan
06.06.2018
08:05:24

Andor
06.06.2018
08:05:44
а с хоста твоего федерейта подёргай курлом тот урл что прометей дёргает
и замерь время

Ivan
06.06.2018
08:06:04
у меня на кластерных прометеях стоит интервал 15 сек.
они должны как то коррелировать с главным?

Andor
06.06.2018
08:06:25
он не главный, он просто собирает с них данные
ну и зависит от настроек
точнее, от того что тебе надо

Ivan
06.06.2018
08:07:11
ну ок. я буду называть его главным ))
мне надо, чтобы все метрики собирались

Andor
06.06.2018
08:07:30
он не главный, он ничем не командует

Ivan
06.06.2018
08:07:39
и не было дырок на графике

Andor
06.06.2018
08:07:40

Ivan
06.06.2018
08:08:19
cейчас

Google

Ivan
06.06.2018
08:08:43
ну он быстро отрабатывает

Andor
06.06.2018
08:08:55
кто?

Ivan
06.06.2018
08:08:56
меньше секунды