@metrics_ru

Страница 550 из 681
Andrew
05.06.2018
09:43:32
hindsight в смысле

Алексей
05.06.2018
10:09:05
Есть View Editor роль для этого.
очевидно что на гитлабовской графане никогда небудет у меня как и большинства участников этого чата роли эдитор

Alexander
05.06.2018
10:10:18
очевидно что на гитлабовской графане никогда небудет у меня как и большинства участников этого чата роли эдитор
Не, это Viewer, котрый может играться с дашбордами, но не сохранять их. Как на play.grafana.com

Google
Алексей
05.06.2018
10:11:58
Не, это Viewer, котрый может играться с дашбордами, но не сохранять их. Как на play.grafana.com
ты намекаешь что надо попросить гитлабовцев поменять тип учетки у анонимуса на едитор ?

Алексей
05.06.2018
10:13:05
На Viewer и включить опцию Viewer Can Edit в конфиге
но очевидно что делать они этого не будут :)

поэтому мне кажется разумным подход с другой стороны. вместо выгрузки csv и крутения данных в ексельке считать что данные пришедшие по вот этой ссылке являются датасорсом для другой графаны

берем публичную графану указывам ссылку которая там отдает данные подсоываем в своюб графану. крутим :)

GithubReleases
05.06.2018
11:42:38
grafana/grafana was tagged: v5.2.0-beta1 Link: https://github.com/grafana/grafana/releases/tag/v5.2.0-beta1 Release notes: [Download Page](https://grafana.com/grafana/download) [Installation Guide](http://docs.grafana.org/installation/) [Release Notes](https://community.grafana.com/t/release-notes-v5-2-x/7894) * **Elasticsearch**: Alerting support [#5893](https://... More

Alexander
05.06.2018
12:02:48
При мержде таблиц в grafana от influxdb можно, чтобы не учитывался определенный столбец?

Sergey
05.06.2018
13:29:41
@rlomonosov Привет! а ты случайно не начал шалить с предварительной буферизацией записи в КХ? а ля вот с таким разрешением мы пишем в инмемори буффер/базу а вот с более грубыми начинаем распихивать уже по дискам

Roman
05.06.2018
13:57:53
а зачем? диск не справляется?

Sergey
05.06.2018
15:12:22
да вот интересно если таблица будет инмемори то время выборок с гокарбоном (инмемори) сравняется или будет все так же раз в 10 медленее

в КХ вот или появился или я только заметил штука под названием Buffer в первом приближении вроде это как раз параметризованный буфер с вытеснением в который можно очень быстро писать, а главное очень быстро читать

Roman
05.06.2018
15:43:57
ты таблички с хранением метрик в обратном порядке пробовал? они как раз и могут ускорить в те самые 10 раз

Google
Sergey
05.06.2018
15:48:12
не не пробовал, попробую

Roman
05.06.2018
15:50:39
пока у всех кто таки попробовал ускорение было значительное. иногда в десятки раз

оптимальную с моей точки зрения схему таблиц я реализовал тут https://github.com/lomik/graphite-clickhouse-tldr там есть и примеры конфигов и запросы создания табличек. ну и вообще тестовый стенд можно одной командой развернуть

Sergey
05.06.2018
16:23:53
А можно порядок озвучить? вот выборку из примерно 5к метрик гокарбон выплевывает за 20мс, КХ(пока без обратных таблиц) - 300мс и ладно бы всегда так было, но эти запросы иногда "чуть чуть" не влезают в понятие КХ "небольшой запрос" и тогда оно падает на диски и вот тогда боль... до 15 сек. Это все конечно не про один запрос, т.е. mps порядка 100к+ в сек

Sergey
05.06.2018
18:06:25
Мой кейс решит перенос запроса а ля топ, макс и вот такое на сторону КХ(пока решается карбоном как быстрой молотилкой). Довольно много экранов из разряда ходим видеть топ 20 из 200—800+ метрик за полчаса, час — частенько КХ считает что в кеше он это не соберёт и лезет на диск(а оно точно ещё в кеше)

Sergey
05.06.2018
18:11:55
Памяти под кеш выделено на полдня хранения, там логика в кеш лезем или нет зависит не от протухания по времени а просто от толстости запроса, может добавили настроек, но полгода назад было так.

Evgeny
05.06.2018
18:16:55
Я @rlomonosov писал про схему которую хотел собрать: метрики писать параллельно в carbon-ch и в go-carbon, но в go-carbon отключить whisper и оставить только кэш который отдаёт метрики по carbon-link. graphite-ch в свою очередь умеет ходить в carbon-link и быстро получать оттуда метрики. Логически схема должна работать но там проблема с реализацией carbon-link в graphite-ch как объяснил Роман

Sergey
05.06.2018
18:19:09
Uncompressed который

Roman
05.06.2018
18:28:33
Uncompressed который
хм, я его даже не пробовал включать )

Sergey
05.06.2018
18:29:22
Значит этот чатик не бесполезен )

На мелочевке прям реально спасает

Roman
05.06.2018
18:34:48
ну если начнет опять когда-нить тормозить, то попробую. после перехода на "реверсивные" таблички как-то все стало слишком хорошо и пока оптимизировать не тянет

GithubReleases
05.06.2018
19:14:35
influxdata/telegraf was tagged: 1.6.4 Link: https://github.com/influxdata/telegraf/releases/tag/1.6.4 Release notes: Telegraf 1.6.4

influxdata/telegraf was tagged: 1.7.0-rc1 Link: https://github.com/influxdata/telegraf/releases/tag/1.7.0-rc1 Release notes: Telegraf 1.7.0-rc1

Google
Sergey
05.06.2018
20:14:01
Хм.. надо пр дожать... хотя там ещё конь не валялся в сборщике

GithubReleases
05.06.2018
21:09:38
influxdata/telegraf was tagged: 1.7.0-rc1 Link: https://github.com/influxdata/telegraf/releases/tag/1.7.0-rc1 Release notes: Arch Platform Package SHA256 amd64 Debian [`telegraf_1.7.0~rc1-1_amd64.deb`](https://dl.influxdata.com/telegraf/releases/telegraf_1.7.0%7Erc1-1_amd64.deb) `5e6a5374d230e64c52fa94f9361dd29650cc8f94c9d25f1c36eab09d01eff5f7`... More

Vladimir
05.06.2018
21:11:34
блин, надо подумать что делать с парсингом markdown'а от релизов телеграфа

Ivan
06.06.2018
06:19:25
Привет! Подскажите, пожал. какая настройка отвечает за удаление устаревших данных в кх? Если я ее изменю, у меня старые данные попавшие под критерий очистятся или только все новозаписанные будут учитываться?

Ivan
06.06.2018
06:23:45
Ага, спасибо

Anvar
06.06.2018
07:50:21
здравствуйте, а тут можно спрашивать совета по мониторингу mysql/postgresql?) точнее, чем удобней мониторить за первомансом mysql и postgresql?

Andor
06.06.2018
07:50:43
про первое у перконы есть готовое

Igor
06.06.2018
07:51:45
про второе недавно видел эту штуку - https://github.com/ankane/pghero но не трогал, хз как она

Bogdan (SirEdvin)
06.06.2018
07:54:33
По поводу postgres есть такая штука: https://www.datadoghq.com/blog/postgresql-monitoring/

Anvar
06.06.2018
07:55:25
спасибо почитаю. По PMM, не куда ставить, нет AWS, docker и VMware :D

есть обычные vps :D

Ivan
06.06.2018
08:01:45
всем привет! У меня такая проблема: есть несколько кластеров куба, в каждом есть прометей для сбора метрик. Есть отдельный прометей, который собирает данные со всех кластеров. У него такой конфиг: - job_name: 'federate' scrape_interval: 15s scrape_timeout: 14s honor_labels: true metrics_path: '/federate' params: 'match[]': - '{job="kubernetes-cadvisor"}' - '{job="kubernetes-service-endpoints"}' static_configs: - targets: - '10.1.29.10:6677' - '10.1.29.30:6677' - '10.1.29.40:6677' Со всех кластеров данные собираются нормально, а с одного периодически прерываются. Все прометеи в кластерах настроены одинаково. Куб поднят тоже одинаково. Разница только в кол-ве нод - в проблемном кластере их 5, в остальных по 3.

Andor
06.06.2018
08:02:24
какую ошибку показывает?

15 секунд интервал - не слишком ли? вангую что оно просто не успевает докачаться

Ivan
06.06.2018
08:02:58
Никакую. Только state меняется с up на down

Admin
ERROR: S client not available

Ivan
06.06.2018
08:03:07
на пару секунд

Andor
06.06.2018
08:03:10
в таргетах чо написано?

на страничке таргетов написано почему даун

Google
Ivan
06.06.2018
08:03:27
вот в таргетах он и меняется

почему - нет

Andor
06.06.2018
08:03:48
вот зачем ты врёшь мне

вот у меня прямщас есть пара таргетов в дауне

пишет context deadline exceeded

Ivan
06.06.2018
08:04:55
про интервал - я так и не понял - пробовал cтавить больше - вообще ничего не приходит

Andor
06.06.2018
08:05:23
кстати интервал и таймаут можно выставлять одинаковыми

Ivan
06.06.2018
08:05:24
пишет context deadline exceeded
а, это да )) у меня тоже самое пишет

Andor
06.06.2018
08:05:44
а с хоста твоего федерейта подёргай курлом тот урл что прометей дёргает

и замерь время

Ivan
06.06.2018
08:06:04
у меня на кластерных прометеях стоит интервал 15 сек. они должны как то коррелировать с главным?

Andor
06.06.2018
08:06:25
он не главный, он просто собирает с них данные

ну и зависит от настроек

точнее, от того что тебе надо

Ivan
06.06.2018
08:07:11
ну ок. я буду называть его главным ))

мне надо, чтобы все метрики собирались

Andor
06.06.2018
08:07:30
он не главный, он ничем не командует

Ivan
06.06.2018
08:07:39
и не было дырок на графике

Ivan
06.06.2018
08:08:19
cейчас

Google
Ivan
06.06.2018
08:08:43
ну он быстро отрабатывает

Andor
06.06.2018
08:08:55
кто?

Ivan
06.06.2018
08:08:56
меньше секунды

Страница 550 из 681