@metrics_ru

Страница 636 из 681
Nklya
07.09.2018
15:43:01
полторы калеки и один дивапс

evix
07.09.2018
15:43:45
все знают что девопс только 10 минут работает, а остальное время только и делает что ненавидит маркетологов

Andor
07.09.2018
15:44:25
в неделю

Google
Andor
07.09.2018
15:45:29
ну я видел даже живую контору которая продаёт консультации по timescaledb

Aliaksandr
07.09.2018
15:45:52
конкурент для project thanos?
Может быть. С первого взгляда архитектура project thanos выглядит сложнее и менее логичной по сравнению с VictoriaMetrics. Хотя это может быть следствием предвзятого отношения :)

Andor
07.09.2018
15:46:15
ну мы же не видим вашу архитектуру

Никита
07.09.2018
15:46:45
Что за навязчивая вообще реклама?

Aliaksandr
07.09.2018
15:48:54
это всё ещё очень малая часть работы по созданию приличного мониторинга на основе prometheus
так prometheus никуда не исчезает. Вы продолжаете пользоваться prometheus, просто не храните много данных локально, а отправляете их в remote_write.url , где прописан ваш Cloud-адрес для хранения данных в VictoriaMetrics. Решаются только специфичные проблемы вроде маленького retention'а, нехватки места на диске, необходимости делать бэкапы / реплики локальных данных прометеуса, возможности делать произвольные запросы поверх данных, собранных разными прометеусами

Andor
07.09.2018
15:49:28
только write?

Evgeny
07.09.2018
15:50:16
Read у прома не очень полезный, честно говоря

Andor
07.09.2018
15:51:12
а, то есть надо будет указать remote_write и потом указывать какой-то внешний адрес как датасорс для графаны?

Aliaksandr
07.09.2018
15:57:59
Неудачной попытки кого? Вас? Мы используем graphite+clickhouse, у нас есть теги, и мы умеем дружить с данными из промитеуса. Что касается места, то это вопрос легко решаемый шардированием, который в КХ отлично работает, по крайней мере у нас.
да, мы не смогли заточить ClickHouse для управления большим количеством time series с произвольными тэгами, как в прометеусе. Насчет места - вопрос решаемый, но это может оказаться очень дорого. Например, наши ежемесячные расходы на хранение аналитических данных ClickHouse выросли с $0 до нескольких десятков тысяч долларов в течение года, при условии, что мы хранили сырые данные только за последние три месяца. Вы предпочтете тратить $100к в месяц на хранение данных в кликхаус или предпочтете специализированное решение, которое жмет данные в 10 раз лучше, и сэкономить $90к в месяц?

Andrey
07.09.2018
15:59:54
я бы добавил тогда уж "магически жмет данные" так завораживающее

Aliaksandr
07.09.2018
16:01:03
я честно говоря пользовался бы подобным сервисом если бы он был в комплекте например с amazon ec2 и стоил бы столько же сколько например RDS, как отдельный сервис лично мне не очень понятно, кто будет это покупать
Есть планы на создание коробочного решения на основе kubernetes для разворачивания на популярных Cloud-хостерах. Но сначала мы сконцентрируемся на своем Cloud-решении.

Google
Aliaksandr
07.09.2018
16:01:58
я бы добавил тогда уж "магически жмет данные" так завораживающее
ок, замените 10 раз на 2 раза и получите экономию всего в $50к в месяц :)

Andrey
07.09.2018
16:03:54
вы просто поймите, тут технический канал, если вы бы сказали что и как вы сжимаете, может имеет смысл обсудить, а так голый маркетинг, хорошо админ спит :)

тоесть все такие тупые и не жмут, а тут такие вы в белом и опа магия

Aliaksandr
07.09.2018
16:05:36
Какая польза для сообщества и конкретно для этого чятика от вашего решения? Никакой.
Я думал, что в этом чятике многие работают с prometheus, а мое решение позволяет решить некоторые проблемы prometheus

Andor
07.09.2018
16:07:18
в этом чятике много работают с прометеем и давно привыкли к ему минусам

или скорее "неидеальностью"

Aliaksandr
07.09.2018
16:08:48
а, то есть надо будет указать remote_write и потом указывать какой-то внешний адрес как датасорс для графаны?
сейчас есть поддержка remote read, но она, как верно подметил Евгений, не очень полезна, т.к. приходится гонять по сети весь набор сырых данных, необходимых для выполнения запроса. Если вы делаете запрос за год по тысяче time series с миллионами metric values в каждой, то придется гнать по сети миллард metric values :( Поэтому в будущем планируем добавить движок PromQL прямо в VictoriaMetrics, чтобы в графане достаточно было поменять адрес датасорса с прометеуса на VictoriaMetrics.

Ну чтож, можно поговорить и в таком ключе: Мы сжимаем данные в 1000 раз лучше чем вообще кто угодно, что вы предпочтёте, тратить на диск 90$ или 10центов? При этом данные читать будет не дёшего но про это потом ;)
согласен, сейчас скорость чтения данных у нас ниже, чем в кликхаусе - всего 30 миллионов metric values в секунду на одно ядро CPU. У кликхауса скорость выше на порядок. Планируем оптимизировать скорость чтения в будущем, если в этом будет затык.

Andor
07.09.2018
16:19:20
вы поймите, тому же окметру платят не за решение проблем хранения метрик, им платят за умение собирать важные метрики и экспертизу какие данные надо рисовать на графиках и как надо алертить

хранение - очень-очень небольшая часть того, за что им платят

ну то есть я бы пользовался подобным сервисом, только если бы ваши услуги были совсем дешёвые

потому и удивляет что вы себя позиционируете как нечто, за что люди побегут платить

Aliaksandr
07.09.2018
16:27:10
значит, вы не наш клиент :)

Andor
07.09.2018
16:27:31
ну вот представь себе

есть чувак, пользуется прометеем, привык к retention в 15 дней

у него есть экспертиза по сбору метрик и алертингу

зачем вы ему?

вряд ли у вас метрики будут дешевле храниться чем у самого прометея

Roman
07.09.2018
16:36:18
есть чувак, пользуется прометеем, привык к retention в 15 дней
Было бы здорово привыкнуть к нескольким месяцам или годам)

Google
Andor
07.09.2018
16:36:57
зачем столько для оперативного мониторинга?

для длинного ретеншна всё равно надо прореживание и выборки нужных метрик, что ставит под сомнение полезность какого-то стороннего сервиса

либо этот сервис должен совсем дешёвым быть

Terminator
07.09.2018
17:29:11
@shefeg будет жить. Поприветствуем!

Sergey
07.09.2018
19:53:38
В графане есть настройка самого графика, параметр null values, значение connected (по умолчанию null). Вроде так навскидку.

Terminator
08.09.2018
07:43:58
@neumeiko будет жить. Поприветствуем!

Vladimir
08.09.2018
10:53:23
зачем вы ему?
да ладно, тут как с любым решением - юзеры найдутся

иначе решения бы не существовало

просто человек немного ошибся аудиторией, в смысле в этом канале не так много людей кому бы был интересен их продукт

Aliaksandr
08.09.2018
11:20:44
Алексей
08.09.2018
11:25:06
я пока не встречал людей которые бы сами ставили прометей но при этом не имели бы в нем экспертизы.

пром довольно замороченный и требует умения читать.

Алексей
08.09.2018
11:25:28
этим даром выши пользователи по идее не должны обладать

а те которые им не обладают как правило ставят системы в стиле next next next

Vladimir
08.09.2018
11:26:25
может, подскажете более подходящий канал с пользователями prometheus ?
я бы мб прошелся бы по devops_ru подобным каналам и в целом каналам для самых маленьких

Aliaksandr
08.09.2018
11:31:34
спасибо, попробую :)

Vladimir
08.09.2018
11:35:07
тут, просто, как выше сказали, технически грамотные люди и в основном интересно что-то что будет opensource, что можно вот обсудить с технической точки зрения и т.п. (например про те же причины почему у вас хранение эффективнее)

Aliaksandr
08.09.2018
11:38:01
этим даром выши пользователи по идее не должны обладать
наоборот, мы ориентируемся на продвинутых пользователей prometheus, которые столкнулись с его ограничениями и желают их обойти. Ограничения вида: - нехватка места на диске для данных прометеуса - маленький retention - невозможность делать произвольные запросы поверх данных из нескольких прометеусов без использования федерации - плохая работа с большим количеством уникальных time series (aka high cardinality problem)

Алексей
08.09.2018
11:38:56
ясно. успехов.

Google
Алексей
08.09.2018
11:49:34
господа, чот я запамятовал как второй метод построения дашиков называется. один USE а второй ?

Nklya
08.09.2018
11:51:03
Red

Admin
ERROR: S client not available

Алексей
08.09.2018
11:51:12
да точно

https://www.weave.works/blog/the-red-method-key-metrics-for-microservices-architecture/

Nklya
08.09.2018
11:51:30
И есть ещё four golden signals от гугла

И это не только про дашики. Это про какие метрики собирать и как дебажить

Алексей
08.09.2018
11:52:29
ага да

мне просто проще запомнить было именно в ключе посторояния графиков

почему то

Terminator
08.09.2018
13:12:12
@morhold будет жить. Поприветствуем!

Terminator
08.09.2018
15:44:16
@goffert будет жить. Поприветствуем!

Mi
09.09.2018
19:49:36
графана может делать спидометры с несколькими метриками?

Deep Sea
09.09.2018
20:03:03
В чем суть?

Можно просто сделать несколько спидометров

Psy
09.09.2018
20:06:37
Не понял, а что такого в прометеусе из ограничений, которые нельзя решить?

Mi
09.09.2018
20:07:37
Можно просто сделать несколько спидометров
слишком дофига уже, пора агрегировать

Mi
09.09.2018
20:08:07
FAN 8 вентиляторов

Google
Deep Sea
09.09.2018
20:09:34
Andor
09.09.2018
21:10:37
FAN 8 вентиляторов
придумай как ты хочешь это агрегировать и выводи это средняя скорость наверняка не подойдёт

vladimir
10.09.2018
05:09:18
Народ, а никто не знает, существует ли в телеге бот, который умеет извне проверять доступность какого либо сайта, и если тот недоступен/пятисотит - бот начинает орать вЛичку/вПриватныйКанал

Похоже вот что-то подобное: http://telegram.org.ru/184-monitoring-dostupnosti-sayta.html

Terminator
10.09.2018
06:52:15
@Sumgan будет жить. Поприветствуем!

vladimir
10.09.2018
08:33:39
uptimerobot ?
нашел 2-их - оба молчат, возможно они в отпуске

vladimir
10.09.2018
08:41:57
У ITSumm'ы такое бот за деньги делает :) но вообще несложно самому написать.
Я как бы уже халявный скинул, который уже написан, который уже работает! Его же мало только написать, его надо поддерживать, обслуживать, любить! Если он уже есть - то зачем это всё?

Страница 636 из 681