
Denys ??
19.01.2018
15:33:38
Но с миллионами файлов и иопсами поможет, да

Nikita
19.01.2018
16:00:46
Я сейчас посматриваю в сторону Прометея + инфлюкс. С Инфлюксом у нас проблемы только при чтении и даже если он потеряет данные, самые актуальные (читай нужные) останутся в проме

Alexander
19.01.2018
16:04:12

Google

Alexander
19.01.2018
16:05:13
Но серебрянной пули нету :(

Andrew
19.01.2018
16:06:18
А большие это сколько?

Nikita
19.01.2018
16:09:09
Инфлюкс я уже использую и уже не люблю) Изначально на него пытались мигрировать, но даже при наших объемах он выжирал по 64GB памяти. Особенно у него проблемы со сжатием данных, в моменты когда он начинает пережимать старые метрики все умирает. Просто в случае с прометеусом он планируется как хранилище для старых метрик. И его производительность не так важна.
Вот сейчас 93 гига памяти. Хотя туда даже не все пишется, я уже не говорю про чтение

Denys ??
19.01.2018
16:11:12

Andrew
19.01.2018
16:11:58

Nikita
19.01.2018
16:18:32

Denys ??
19.01.2018
16:20:32
Дело не в просто количестве, а именно в кардиналити - https://www.influxdata.com/blog/path-1-billion-time-series-influxdb-high-cardinality-indexing-ready-testing/
По статье - не знаю насколько помог новый индекс

yuyu
19.01.2018
16:24:51
Он вроде как "боевой" пока по умолчанию всё ещё не идёт, да и миграции со старого движка на новый автоматом нет.
У меня 64 гига перестало хватать при ~25М серий,после чего пришлось до 128 гигов временно увеличить просто чтобы данные вытащить для миграции в кликхаус.

Andrew
19.01.2018
17:37:41
http://www.timescale.com/
А эту штуку кто-то юзал? Выглядит заманчиво.

terry
19.01.2018
17:39:33

Google

Andrew
19.01.2018
17:39:40
Нет
Почитай

Алексей
19.01.2018
17:39:46
ща

отделение
19.01.2018
17:39:51

Andrew
19.01.2018
17:40:03
О, Алексей, а расскажи что-нить

Алексей
19.01.2018
17:40:56
ща.
@hitmaker позову. он тыкал

Dmitry
19.01.2018
17:41:44
Там какое-то ограничение мне не понравилось на бумаге. Но точно не помню
А, первое что - в RDS незя пока запустить

Andrew
19.01.2018
17:42:16
rds?

Dmitry
19.01.2018
17:42:31
в амазоне, да.

Dan
19.01.2018
17:42:37

Andrew
19.01.2018
17:43:04
Как кандидат на использование Лонг терм сторадж для метрик думаю

Dmitry
19.01.2018
17:43:05

Andrew
19.01.2018
17:43:08
На своем железе

Denys ??
19.01.2018
17:49:57

Andrew
19.01.2018
17:51:43
Поставлю три железки и сделаю кластер

Google

Denys ??
19.01.2018
17:52:07
У TimescaleDB нету кластера

Andrew
19.01.2018
17:52:31
А она ж с пгскл работает, его кластеризацию нельзя использовать?

Denys ??
19.01.2018
17:52:35
нет
было б все так просто
https://docs.timescale.com/v0.8/faq
"Is there a clustered version and how can I try it?
A clustered version is actively being developed. If you'd like to learn more, please contact us at hello@timescale.com. In the meantime, please read the two questions below about the extent of TimescaleDB's single-node scalability. [Top]"

Dmitry
19.01.2018
17:54:09

Denys ??
19.01.2018
17:54:35
"We've first focused on scaling TimescaleDB up on a single node, which you can read about in the next question. On our internal benchmarks, we have consistently scaled TimescaleDB 10+ billion rows, while sustaining insert rates of 100-200k rows / second (or 1-2 million metric inserts / second). That said, the principal design decisions implemented for scaling up are the same for allowing TimescaleDB to scale out horizontally in a linear fashion across many servers. When clustering is released, all servers can receive and process queries, and store data; TimescaleDB will not use any specialized primary server or transaction coordination. It is designed to combine the scalability of popular NoSQL databases, with the native query complexity supported by RDBMS systems. [Top]"

Andrew
19.01.2018
17:54:41
Ага ясно.
Ну я пока хз нужен ли мне кластер, может и одной жирной железки хватит

Dmitry
19.01.2018
17:55:05

M
19.01.2018
17:55:19
ребята node_exporter есть альтеранитва для windows ??

Andrew
19.01.2018
17:55:28
Ну и пусть падает, я с нее читать не буду

Andrew
19.01.2018
17:55:43
Данные то не потеряются, а даун не страшен

отделение
19.01.2018
17:56:16

M
19.01.2018
17:56:40
да задавал но только щас проверил тк ответ был что node_exporter подходит для windows

Dmitry
19.01.2018
17:56:55

Andrew
19.01.2018
17:57:42
Нет.

Dmitry
19.01.2018
17:57:56
Почему нет?

отделение
19.01.2018
17:58:34

Andrew
19.01.2018
17:58:40
Для меня это просто архив, хранилка. Который может переваривать относительно много данных, и с возможностью легко вытащить из него их. При этом доступность постоянная не критична.

Google

Dmitry
19.01.2018
17:59:12
еще gzipнуть

Andrew
19.01.2018
17:59:45
А визуализировать это как предлагаешь?

Sergey
19.01.2018
17:59:54
эффективность разная выйдет

terry
19.01.2018
17:59:59

Dmitry
19.01.2018
18:00:31
Так звучит как архивный cold storage. Нафига оттуда визуализировать?

Sergey
19.01.2018
18:02:26
а нахрена хранить в жсоне что-то архивное?

Sergey
19.01.2018
18:02:50

Admin
ERROR: S client not available

Dmitry
19.01.2018
18:02:58
ну, например, если хочется сложить на s3
или прогнать через hadoop

Sergey
19.01.2018
18:03:14

Dmitry
19.01.2018
18:03:32
а, ну формат серализации - ок, хоть паркет
я скорее о "не СУБД"

Sergey
19.01.2018
18:03:59
json просто как формат сериализации для любых данных превышающих околонихуя - DNIWE же

Dmitry
19.01.2018
18:04:51

Sergey
19.01.2018
18:05:10
"виспер" в плане компрессии тоже DNIWE

Dmitry
19.01.2018
18:06:58
и я хз, может ли хадуп или спарк из каробки читать виспер...
короче, разговор о том, что в той ситуации возможно есть смысл сложить все в файлы и не парить мозг

Google

Dan
19.01.2018
18:19:55
(для себя)
Коллеги, как освобожусь - дам знать и mentions выставлю

M
19.01.2018
20:28:53
ребята подскажите почему это не работает
sum by (mode) (rate(wmi_cpu_time_total{}[5m])) / count (wmi_cpu_tme_total) by (mode)

Andor
19.01.2018
20:29:15
tme ?

M
19.01.2018
20:29:34

Andor
19.01.2018
20:29:44
прочитай свой запрос ещё раз
если верно сюда принёс, то у тебя опечатка

M
19.01.2018
20:29:54
sum by (mode) (rate(wmi_cpu_time_total{}[5m])) / 8
вот такое работает

Andor
19.01.2018
20:30:43
а count (wmi_cpu_tme_total) by (mode)?

M
19.01.2018
20:31:32
работает
ну да я опечатку сделал
но все равно работает только когда я делаю число а count не работает

Andor
19.01.2018
20:32:11
щас всё ок?

M
19.01.2018
20:32:21
нет
я гдето чтото не так делаю и не могу понять как

Andor
19.01.2018
20:32:31
сравни что тебе первый запрос возвращает и что второй
метки у полученных метрик должны полностью совпадать

M
19.01.2018
20:32:41
ну первый возвращает пять метрик и второй
Ребята а появился уже какой то спосбо из prometheus в телеграм слать сообщения?