@metrics_ru

Страница 423 из 681
Denys ??
19.01.2018
15:33:38
Но с миллионами файлов и иопсами поможет, да

Nikita
19.01.2018
16:00:46
Ну здась тебе скорее посоветуют воспользоваться clickhouse, с carbon-clickhouse + graphite-clickhouse + carbonapi эта связка на ура решает проблему жрущих много иопсов whisper \ ceres
Да, тоже думал в эту сторону. Использовал кликхаус на прошлой работы и было вполне окей, правда в него напрямую писали. Смущает что это разрабатывает по сути один человек.

Я сейчас посматриваю в сторону Прометея + инфлюкс. С Инфлюксом у нас проблемы только при чтении и даже если он потеряет данные, самые актуальные (читай нужные) останутся в проме

Google
Alexander
19.01.2018
16:05:13
Но серебрянной пули нету :(

Andrew
19.01.2018
16:06:18
А большие это сколько?

Nikita
19.01.2018
16:09:09
Инфлюкс я уже использую и уже не люблю) Изначально на него пытались мигрировать, но даже при наших объемах он выжирал по 64GB памяти. Особенно у него проблемы со сжатием данных, в моменты когда он начинает пережимать старые метрики все умирает. Просто в случае с прометеусом он планируется как хранилище для старых метрик. И его производительность не так важна.

Вот сейчас 93 гига памяти. Хотя туда даже не все пишется, я уже не говорю про чтение

Denys ??
19.01.2018
16:11:12
А большие это сколько?
От кардиналити зависит сколько он сожрет ОЗУ на индексы

Nikita
19.01.2018
16:18:32
О, а можете свои объемы метрик раскрыть?
Ну, точно я не скажу, т.к у нас несколько проектов пишут

Denys ??
19.01.2018
16:20:32
Дело не в просто количестве, а именно в кардиналити - https://www.influxdata.com/blog/path-1-billion-time-series-influxdb-high-cardinality-indexing-ready-testing/

По статье - не знаю насколько помог новый индекс

yuyu
19.01.2018
16:24:51
Он вроде как "боевой" пока по умолчанию всё ещё не идёт, да и миграции со старого движка на новый автоматом нет. У меня 64 гига перестало хватать при ~25М серий,после чего пришлось до 128 гигов временно увеличить просто чтобы данные вытащить для миграции в кликхаус.

Andrew
19.01.2018
17:37:41
http://www.timescale.com/ А эту штуку кто-то юзал? Выглядит заманчиво.

Google
Andrew
19.01.2018
17:39:40
Нет

Почитай

отделение
19.01.2018
17:39:51
форк постгреса?
модуль к нему

Andrew
19.01.2018
17:40:03
О, Алексей, а расскажи что-нить

Алексей
19.01.2018
17:40:56
ща.

@hitmaker позову. он тыкал

Dmitry
19.01.2018
17:41:44
Там какое-то ограничение мне не понравилось на бумаге. Но точно не помню

А, первое что - в RDS незя пока запустить

Andrew
19.01.2018
17:42:16
rds?

Dmitry
19.01.2018
17:42:31
в амазоне, да.

Dan
19.01.2018
17:42:37
http://www.timescale.com/ А эту штуку кто-то юзал? Выглядит заманчиво.
Был некоторый опыт, так сказать. Освобожусь чуть - напишу. В очень очень двух словах: вообще штука интересная, так и не поняли как её правильно использовать и готовить, поэтому остановились на pgsql.

Andrew
19.01.2018
17:43:04
Как кандидат на использование Лонг терм сторадж для метрик думаю

Denys ??
19.01.2018
17:49:57
Как кандидат на использование Лонг терм сторадж для метрик думаю
без кластера? Ну если есть большая и жирная железка...

Andrew
19.01.2018
17:51:43
Поставлю три железки и сделаю кластер

Google
Denys ??
19.01.2018
17:52:07
У TimescaleDB нету кластера

Andrew
19.01.2018
17:52:31
А она ж с пгскл работает, его кластеризацию нельзя использовать?

Denys ??
19.01.2018
17:52:35
нет

было б все так просто

https://docs.timescale.com/v0.8/faq

"Is there a clustered version and how can I try it? A clustered version is actively being developed. If you'd like to learn more, please contact us at hello@timescale.com. In the meantime, please read the two questions below about the extent of TimescaleDB's single-node scalability. [Top]"

Dmitry
19.01.2018
17:54:09
Denys ??
19.01.2018
17:54:35
"We've first focused on scaling TimescaleDB up on a single node, which you can read about in the next question. On our internal benchmarks, we have consistently scaled TimescaleDB 10+ billion rows, while sustaining insert rates of 100-200k rows / second (or 1-2 million metric inserts / second). That said, the principal design decisions implemented for scaling up are the same for allowing TimescaleDB to scale out horizontally in a linear fashion across many servers. When clustering is released, all servers can receive and process queries, and store data; TimescaleDB will not use any specialized primary server or transaction coordination. It is designed to combine the scalability of popular NoSQL databases, with the native query complexity supported by RDBMS systems. [Top]"

Andrew
19.01.2018
17:54:41
Ага ясно. Ну я пока хз нужен ли мне кластер, может и одной жирной железки хватит

M
19.01.2018
17:55:19
ребята node_exporter есть альтеранитва для windows ??

Andrew
19.01.2018
17:55:28
Ну и пусть падает, я с нее читать не буду

Andrew
19.01.2018
17:55:43
Данные то не потеряются, а даун не страшен

отделение
19.01.2018
17:56:16
ребята node_exporter есть альтеранитва для windows ??
сегодня ж задавали такой же вопрос

M
19.01.2018
17:56:40
да задавал но только щас проверил тк ответ был что node_exporter подходит для windows

Dmitry
19.01.2018
17:56:55
Данные то не потеряются, а даун не страшен
с таким же успехом можно хранить в блобе и json файлах

Andrew
19.01.2018
17:57:42
Нет.

Dmitry
19.01.2018
17:57:56
Почему нет?

отделение
19.01.2018
17:58:34
wmi_exporter ещё был
@sabien_bot тогда ты вот это пропустил

Andrew
19.01.2018
17:58:40
Для меня это просто архив, хранилка. Который может переваривать относительно много данных, и с возможностью легко вытащить из него их. При этом доступность постоянная не критична.

Google
Andrew
19.01.2018
17:59:45
А визуализировать это как предлагаешь?

Sergey
19.01.2018
17:59:54
эффективность разная выйдет

terry
19.01.2018
17:59:59
еще gzipнуть
ну а как же тренды и смузи?

Dmitry
19.01.2018
18:00:31
Так звучит как архивный cold storage. Нафига оттуда визуализировать?

Sergey
19.01.2018
18:02:26
а нахрена хранить в жсоне что-то архивное?

Sergey
19.01.2018
18:02:50
Admin
ERROR: S client not available

Dmitry
19.01.2018
18:02:58
ну, например, если хочется сложить на s3

или прогнать через hadoop

Sergey
19.01.2018
18:03:14
или прогнать через hadoop
ну а чо б не виспер?

Dmitry
19.01.2018
18:03:32
а, ну формат серализации - ок, хоть паркет

я скорее о "не СУБД"

Sergey
19.01.2018
18:03:59
json просто как формат сериализации для любых данных превышающих околонихуя - DNIWE же

Dmitry
19.01.2018
18:04:51
json просто как формат сериализации для любых данных превышающих околонихуя - DNIWE же
я точного сравнения размера на точку виспера и gzipped json не знаю, но по идее он нормально компрессится

Sergey
19.01.2018
18:05:10
"виспер" в плане компрессии тоже DNIWE

Dmitry
19.01.2018
18:06:58
и я хз, может ли хадуп или спарк из каробки читать виспер...

короче, разговор о том, что в той ситуации возможно есть смысл сложить все в файлы и не парить мозг

Google
M
19.01.2018
20:28:53
ребята подскажите почему это не работает sum by (mode) (rate(wmi_cpu_time_total{}[5m])) / count (wmi_cpu_tme_total) by (mode)

Andor
19.01.2018
20:29:15
tme ?

M
19.01.2018
20:29:34
tme ?
что это?

Andor
19.01.2018
20:29:44
прочитай свой запрос ещё раз

если верно сюда принёс, то у тебя опечатка

M
19.01.2018
20:29:54
sum by (mode) (rate(wmi_cpu_time_total{}[5m])) / 8

вот такое работает

Andor
19.01.2018
20:30:43
а count (wmi_cpu_tme_total) by (mode)?

M
19.01.2018
20:31:32
работает

ну да я опечатку сделал

но все равно работает только когда я делаю число а count не работает

Andor
19.01.2018
20:32:11
щас всё ок?

M
19.01.2018
20:32:21
нет

я гдето чтото не так делаю и не могу понять как

Andor
19.01.2018
20:32:31
сравни что тебе первый запрос возвращает и что второй

метки у полученных метрик должны полностью совпадать

M
19.01.2018
20:32:41
ну первый возвращает пять метрик и второй

Ребята а появился уже какой то спосбо из prometheus в телеграм слать сообщения?

Страница 423 из 681