@metrics_ru

Страница 671 из 681
Terminator
16.10.2018
17:32:21
Vasily будет жить. Поприветствуем!

@greynix будет жить. Поприветствуем!

Aliaksandr
16.10.2018
20:44:24
При использовании большинства коллекторов с каждого сервера намывает под 1000 уникальных метрик, ЕМНИП, и опять же ЕМНИП, стандартный интервал - 10 сек, не? Ну и единственный инстанс Akumuli на самом дешевом arm сервере за 5 баксов в месяц вытянет до 100К значений в секунду ?
> При использовании большинства коллекторов с каждого сервера намывает под 1000 уникальных метрик В нашем node-exporter'е - 417 метрик на сервер: avg(count({job="node-exporter"}) by (cluster_retention, cluster_num, service, instance)) > опять же ЕМНИП, стандартный интервал - 10 сек, не? Стандартный интервал сбора метрик в прометеусе - 60 секунд - см. https://prometheus.io/docs/prometheus/latest/configuration/configuration/#configuration-file . > Ну и единственный инстанс Akumuli на самом дешевом arm сервере за 5 баксов в месяц вытянет до 100К значений в секунду А хранилище для 100к*3600*24*30=260 миллиардов значений тоже укладывается в 5 баксов в месяц вместе с сервером? :)

Google
Aliaksandr
16.10.2018
20:59:08
В гугл клауде, где мы хостимся, терабайт HDD стоит 40 баксов в месяц, SSD - 170 баксов в месяц. https://cloud.google.com/compute/pricing#disk . Добавьте сюда репликацию / бэкапы, и уже никак не выйдет 5 баксов

Evgeny
16.10.2018
21:40:20
В гугл клауде, где мы хостимся, терабайт HDD стоит 40 баксов в месяц, SSD - 170 баксов в месяц. https://cloud.google.com/compute/pricing#disk . Добавьте сюда репликацию / бэкапы, и уже никак не выйдет 5 баксов
Если мне не изменяет память, то у вас 30$ за год и 100$ за пять лет стоят 1к точек в секунду. А в моем случае мы считаем для 100к в секунду ?

Rad
17.10.2018
07:14:14
господа, а с помощью prometheus как можно мониторить запущен ли определенный процесс , вариант который я нашел это агент telegraf , который выполняет переодично pgrep

Deep Sea
17.10.2018
07:21:25
Есть process_exporter

evix
17.10.2018
07:28:39
если процесс запущен через systemd, то есть чек в node_exporter

Aliaksandr
17.10.2018
07:52:48
Если мне не изменяет память, то у вас 30$ за год и 100$ за пять лет стоят 1к точек в секунду. А в моем случае мы считаем для 100к в секунду ?
Давайте подсчитаем стоимость хранилища для 100к точек в секунду (mvps). Вы прикинули, что для хранения данных за месяц нужен 1 ТБ, который в гугл клауде стоит либо $40 в месяц на HDD либо $170 в месяц на SSD. Стоимость хранения данных, собранных за месяц, в течение пяти лет будет равна минимум $40*12*5=$2400. Умножаем на 2 для репликации / бекапов. Получаются минимальные ежемесячные затраты на хранение 100к mvps данных с пятилетним ретеншном - $4800, или $48 для 1k mvps. Накинем сюда сопутствующие расходы на компы с сетевым трафом - выйдет недалеко от $100. А если захотите SSD вместо HDD, то в $100 не получится уложиться.

Andor
17.10.2018
07:56:05
В таносе ты просто хранишь историю в s3

Заметно дешевле будет

Aliaksandr
17.10.2018
08:01:05
терабайт в s3 стоит $23 в месяц - https://aws.amazon.com/s3/pricing/ . Дешевле будет только в два раза. Если не делать репликацию, то в четыре раза. Но для этого нужно заморачиваться с настройкой и поддержанием в рабочем состоянии всей инфраструктуры таноса, которая изображена серыми квадратиками вот тут - https://d33wubrfki0l68.cloudfront.net/625f453382ddb31c8592aa59ac93fe4b5dae7cc3/9d3fe/static/images/blog/2018-07-26-monitoring-monzo/monitoring_1.png .

и у s3 еще платный доступ к данным

$2 за чтение терабайта данных

Andrey
17.10.2018
08:05:39
Это очередной заход наглого продователя "слона"? вроде ж в прошлый раз решили что бесполезно?

Google
Aliaksandr
17.10.2018
08:12:43
Это очередной заход наглого продователя "слона"? вроде ж в прошлый раз решили что бесполезно?
почему бесполезно? Вы не хотите избавиться от головняка с управлением локальным хранилищем данных прометеуса - бэкапы, репликация, retention, capacity planning, stateful pods in k8s - и переложить это все на сторонний недорогой сервис типа VictoriaMetrics?

buttno
17.10.2018
08:13:23
так нет головняка, сетап давно просто работает, не нужно комерческое решение, а если нужно быстро начать есть решения вроде https://freshtracks.io/product/

Nklya
17.10.2018
08:13:24
может кто и хочет. очевидно что маркетинг какой-то слишком агрессивный

Алексей
17.10.2018
08:14:13
Алиаксандр а чего есть почитать на нейтральной площадке типа хабра?

Aliaksandr
17.10.2018
08:14:37
так вот же https://cloud.google.com/stackdriver/
там нет ремоут стореджа для прометеуса :(

buttno
17.10.2018
08:17:08
попробуй сравнить продвигаемое решение с тем, что уже давно есть на рынке, решением от weave.works, robustperseption...

buttno
17.10.2018
08:17:36
пожалуйста )

Aliaksandr
17.10.2018
08:25:58
попробуй сравнить продвигаемое решение с тем, что уже давно есть на рынке, решением от weave.works, robustperseption...
сравнивали. Все похожие ремоут сторедж решения для прометеуса - m3, thanos и cortex - сложнее в настройке и дальнейшем сопровождении. Вот тут подробности - https://github.com/VictoriaMetrics/VictoriaMetrics/wiki/FAQ

Andor
17.10.2018
08:26:36
Насколько сложнее?

И избавление от вендор-лока в коробке

Aliaksandr
17.10.2018
08:35:52
Насколько сложнее?
Настройка VictoriaMetrics выглядит так: вы прописываете remote_write урл в конфиге прометеуса. Все. После этого прометеус пишет данные одновременно в локальный сторедж и в ремоут сторедж, так что все ваши локальные данные никуда не исчезают. Потом, когда убедитесь в надежности ремоут стореджа, можете уменьшить ретеншн для локал стореджа прометеуса до минимального возможного - 2 часа, и перевести прометеус в stateless pod в кубернетсе. Теперь все данные будут записываться в ремоут сторедж. Настройка thanos - вы должны создать и управлять серыми квадратиками с картинки https://d33wubrfki0l68.cloudfront.net/625f453382ddb31c8592aa59ac93fe4b5dae7cc3/9d3fe/static/images/blog/2018-07-26-monitoring-monzo/monitoring_1.png Настройка m3 - нужно создать и управлять похожими квадратиками, как и в thanos - https://m3db.github.io/m3/introduction/components/components/ Настройка cortex - нужно создать и управлять какими-то компонентами из проекта с говорящим названием "Project Frankenstein" - https://docs.google.com/document/d/1C7yhMnb1x2sfeoe45f4mnnKConvroWhJ8KQZwIHJOuw/edit#heading=h.f7lkb8wswewc

Nklya
17.10.2018
08:37:28
TLDR: VictoriaMetrics - это суперпросто, а у остальных какие-то сложные квадратики

Andrey
17.10.2018
08:39:00
Да если это тот же товарищ, то он мало адекватен реальности, главный вопрос, нахрена в этих всех схемах их суперский сервис и плата именно им

evix
17.10.2018
08:42:08
а если не предложим?

Google
Nklya
17.10.2018
08:42:40
там даже еластик вон привезли

Roman
17.10.2018
08:43:02
А какие требования к альтернативам? А то ведь можно просто influxdb запустить и указать как remote storage

Evgeny
17.10.2018
08:43:55
Andor
17.10.2018
08:46:27
Настройка VictoriaMetrics выглядит так: вы прописываете remote_write урл в конфиге прометеуса. Все. После этого прометеус пишет данные одновременно в локальный сторедж и в ремоут сторедж, так что все ваши локальные данные никуда не исчезают. Потом, когда убедитесь в надежности ремоут стореджа, можете уменьшить ретеншн для локал стореджа прометеуса до минимального возможного - 2 часа, и перевести прометеус в stateless pod в кубернетсе. Теперь все данные будут записываться в ремоут сторедж. Настройка thanos - вы должны создать и управлять серыми квадратиками с картинки https://d33wubrfki0l68.cloudfront.net/625f453382ddb31c8592aa59ac93fe4b5dae7cc3/9d3fe/static/images/blog/2018-07-26-monitoring-monzo/monitoring_1.png Настройка m3 - нужно создать и управлять похожими квадратиками, как и в thanos - https://m3db.github.io/m3/introduction/components/components/ Настройка cortex - нужно создать и управлять какими-то компонентами из проекта с говорящим названием "Project Frankenstein" - https://docs.google.com/document/d/1C7yhMnb1x2sfeoe45f4mnnKConvroWhJ8KQZwIHJOuw/edit#heading=h.f7lkb8wswewc
Танос - не просто remote_write, он ещё и читать это умеет

Aliaksandr
17.10.2018
08:46:59
У вас там в демо дашборде данные только за сутки можно посмотреть.
вчера просто напоролись на багу, которая удалила все старые данные :( Багу пофиксили, так что больше такого не должно быть

Andor
17.10.2018
08:47:18
предложите альтернативы, такие же удобные в настройке, как наш сервис
Люди хотят не просто архивировать метрики, но и уметь их читать. Танос решает эту задачу

Vladimir
17.10.2018
08:47:24
Droplet в DO - 5$ + 150GB volume - 15$ + backups - 1$ в месяц. Это если мы говорим про 1к с ретеншеном в один год.
проблема в том что DO это такой VPS хостинг для не очень богатых, но горячих на голову)

Aliaksandr
17.10.2018
08:47:29
Vladimir
17.10.2018
08:47:39
то есть в продакшене его использовать стоит с осторожностью и думая о каждом своем действии

Andor
17.10.2018
08:48:03
Правда у нас там не прод

Aliaksandr
17.10.2018
08:48:45
Танос - не просто remote_write, он ещё и читать это умеет
VictoriaMetrics тоже умеет читать - https://github.com/VictoriaMetrics/VictoriaMetrics/wiki/ExtendedPromQL

Igor
17.10.2018
08:48:57
А использует ли кто-нибудь snmp-exporter для прометея? Девайс отдаёт значение latency в виде строки, и exporter пишет его как метку. Что-то не пойму, как это значение конвертировать в число

Andor
17.10.2018
08:49:07
Andor
17.10.2018
08:49:30
А зачем мне платить вам, если танос разворачивается одним вызовом kubectl/helm?

Google
Andor
17.10.2018
08:49:46
При прочих равных я бы взял опенсорс решение

Даже если вы не хуже

Aliaksandr
17.10.2018
08:50:03
сукцесс стори, так и подмывает стать вашим клиентом
так мы еще в тестовом режиме. Прода еще нет

Admin
ERROR: S client not available

Andor
17.10.2018
08:50:08
В чём лично я сомневаюсь

Aliaksandr
17.10.2018
08:51:50
Я могу сделать одну точку входа?
да, можно использовать данные, собранные с разных прометеусов, в одном запросе, при условии, что у всех этих прометеусов указан одинаковый remote_write урл.

aka global querying view

Andor
17.10.2018
08:53:23
Почитайте как работает танос

Там нет remote_write, там эффективнее

Aliaksandr
17.10.2018
08:53:59
А зачем мне платить вам, если танос разворачивается одним вызовом kubectl/helm?
даже если танос развернуть в кубере, этот кубер-кластер нужно где-то хостить, его нужно мониторить, обновлять, делать capacity planning, etc.

Andor
17.10.2018
08:54:27
Ну у тебя же мониторинг - не самоцель

Он что-то мониторит, какие-то твои класеры и вот это всё

Aliaksandr
17.10.2018
08:54:55
При прочих равных я бы взял опенсорс решение
у нас будет опенсорс решение, но попозже, когда утрясутся все детали архитектуры

Andrey
17.10.2018
08:55:43
ну вот тогда и приходите ;)

опенсорц, если что работает не так

Aliaksandr
17.10.2018
08:56:50
Там нет remote_write, там эффективнее
может, sidecart'ы эффективнее собирают данные из локал стореджа прометеуса, но зато с точки зрения operational overhead прописать один remote_write урл намного проще, чем устанавливать sidecart'ы и постоянно следить за их правильной работой

Andor
17.10.2018
08:57:05
Нет, это одинаково просто

Andor
17.10.2018
08:57:26
Ну и лучше всё-таки если бы пришёл технический спец, а ре маркетинг

Evgeny
17.10.2018
08:57:37
тут правда ретеншн короткий

Google
Andor
17.10.2018
08:57:43
Технарь правильно бы написал sidecar

Andrey
17.10.2018
08:58:53
Aliaksandr
17.10.2018
08:59:19
Andor
17.10.2018
09:00:14
Можно лучше кого-нибудь из ваших инженеров сюда привести?

Желательно тех, кто умеет работать со всякими кубернетисами

Aliaksandr
17.10.2018
09:01:02
немного не понял, что вы хотели сказать этим скриншотом

Можно лучше кого-нибудь из ваших инженеров сюда привести?
у них нет времени на чаты - они пишут код :)

Andor
17.10.2018
09:02:25
Ну-ну

Может быть с точки зрения менеджера это так выглядит

Andrey
17.10.2018
09:03:08
вот взял и спалил чуваков

Aliaksandr
17.10.2018
09:04:22
пойду проверю, чем они там занимаются. Повыгоняю к чертям собачьим, если они не пишут код, а сидят в фейсбуке или телеграмме

Andor
17.10.2018
09:04:27
Я вот тоже инженер вроде, но пофлудить в чяте у меня время есть

Страница 671 из 681