@metrics_ru

Страница 358 из 681
Alexander
28.11.2017
16:39:47
точек

Vladimir
28.11.2017
16:40:52
это значит что я не увижу точе BC ?
Если метаданные одинаковые, то он дождется ответа от второго и подклеит

Что не хватает

Alexander
28.11.2017
16:41:17
ээ

Google
Alexander
28.11.2017
16:41:28
метаданные - это что имеется в виду?

Vladimir
28.11.2017
16:41:30
Если метаданные разные (шаг) то получишь первый ответ

Alexander
28.11.2017
16:42:36
гм

Vladimir
28.11.2017
16:42:40
Он не умеет аппроксимировать или делать роллап пока что

Alexander
28.11.2017
16:42:44
ок поробую потестить

спасибо за ответ!

Vladimir
28.11.2017
16:43:04
Впрочем научиться со временем

Alexander
28.11.2017
16:45:10
вобщем пробовал go-carbon - из приятного все в одном бинарнике

из неочень - на том же ретеншене виспер все-таки жрет больше

Vladimir
28.11.2017
16:45:53
12 байт на точку

Плюс преалокация

Google
Alexander
28.11.2017
16:46:08
но судя по активности в ветке мегакарбона и цереса ему разве что памятник не успели поставить

а так уже закопали

а я не большй период брал

60к метрик в минуту с ретеншеном 3 дня 1 минута 5 минут 7 дней

Vladimir
28.11.2017
16:47:05
а так уже закопали
Мне к сожалению очень ленив вдумчиво писать либу цереса, поэтому я закопался с ней. Как сделаю - закомичу в го карбон поддержку

Точнее отправлю пулл реквест

Alexander
28.11.2017
16:47:25
было бы клево Ж)

:)

Vladimir
28.11.2017
16:47:36
Но медленно идет

Alexander
28.11.2017
16:48:07
а чем помочь можно?

Vladimir
28.11.2017
16:48:15
И кто то даже что то фиксил

а чем помочь можно?
Да хз... Там довольно монотонная работа пока тупо по написанию совместимого с го-виспер интерфейса

Alexander
28.11.2017
16:50:32
вот та реализация что у Куликова - там пофикшен баг с отображением метрик из нескольких слайсов

Alexander
28.11.2017
16:52:49
да как то не очень - год назад качал из мастера - там этого фикса не было

я вот кстати так не придумал как сделать роллап для базы более плавным

как запускаетя и сервер укладывается по чтению



Google
Alexander
28.11.2017
16:59:35
как то так

Alexey
28.11.2017
17:01:40
Vladimir
28.11.2017
17:01:54
Или цгруппы и лимиты на blk

Там как раз иопсы можно подрезать

Alexander
28.11.2017
17:03:19
да подрезать можно

это и через врайтеры можно прям делать

только сам процесс хотелось бы как нибудь менее напряжно для сервера делать но при этом не просирать момент ретеншена

Alexander
28.11.2017
17:05:30
да то похоже

Vladimir
28.11.2017
17:05:53
Он с ио мягче как раз потому что в нем по дизайну заложено что ретеншн может поплыть

Evgeny
28.11.2017
17:07:46
Да хз... Там довольно монотонная работа пока тупо по написанию совместимого с го-виспер интерфейса
Может глупость спрошу, а если прикрутить поддержку сжатия whisper файлов на файловой системе - не сильно проще? Да будет оверхед на cpu, но скорее всего приемлемый.

Evgeny
28.11.2017
17:08:23
Эх )

Vladimir
28.11.2017
17:08:25
Но жмёт раза в 3

Alexander
28.11.2017
17:09:27
т.е. имеет смысл попробовать zfsonlinux

Алексей
28.11.2017
17:09:28
Там как раз иопсы можно подрезать
простите за вмешательство, а в сцгруппах именно iops ? я думал там приоритеты

Alexander
28.11.2017
17:10:59
интересно насколько хорошо виспер дедублицируется

Alexander
28.11.2017
17:11:34
А есть опыт такой?

На чем был основной затык и какая ФС?

Google
Vladimir
28.11.2017
17:11:58
На чем был основной затык и какая ФС?
Kernel thread делающий сжатие в полку цпу

ФС - бтрфс и зфс пробовали

Но примерно год назад

Бтрфс вообще в себя уходил и не возвращался

Alexey
28.11.2017
17:13:34
интересно насколько хорошо виспер дедублицируется
это врядли, если дедубликация блочная, то скорее всего только пустые куски. Но учитывая сколько там iops и если будет много метрик, что-то сомнаваюсь что оно сможет полететь.

Aleksandr
28.11.2017
17:14:33
снэпшоты

Evgeny
28.11.2017
17:14:40
т.е. имеет смысл попробовать zfsonlinux
Вот да был мысль попробовать

Admin
ERROR: S client not available

Alexander
28.11.2017
17:18:02
да ну как сказать там она сразу на все работает

вот тут кому интересно: https://pthree.org/2012/12/18/zfs-administration-part-xi-compression-and-deduplication/

Vladimir
28.11.2017
17:18:39
да ну как сказать там она сразу на все работает
Размер блока довольно большой, эффективность низкая

Alexander
28.11.2017
17:19:34
вобщем самое плохое что там обещают For mixed data, it's been common for me to see 1.15x savings.

Alexey
28.11.2017
17:20:04
да ну как сказать там она сразу на все работает
Вы, когда свой dedup zfs volume смонтировать не сможете, вы меня вспомните :)

Alexander
28.11.2017
17:20:34
а вообще у меня перед глазами 1,8 ТБ данных из которых реально занимают на диске 500

Вы, когда свой dedup zfs volume смонтировать не сможете, вы меня вспомните :)
На чем это утверждение основано? Я в дев инфраструктуре юзаю же в течение нескольких лет - работает как часы

Vladimir
28.11.2017
17:21:33
а вообще у меня перед глазами 1,8 ТБ данных из которых реально занимают на диске 500
Ну мы на компрессию тоже облизиваеемся. сжало бы данные без учёта пустых кусков в 3 раза на lz4

Но увы

Alexander
28.11.2017
17:22:06
если бы не неудобство в dkms на центоси и рхеле вообще классная ФС

Google
Alexey
28.11.2017
17:22:58
Alexander
28.11.2017
17:23:28
Но в убунте этот вопрос решил - просто зафигачили прямо в пакете с ядром

The Cost of Deduplication я бы вчитался вот в это ^
А вы пробовали? Ну да, ОЗУ там много надо

Но скажем так ОЗУ сейчас копейки стоит по сравнению с SSD

Alexey
28.11.2017
17:25:03
А вы пробовали? Ну да, ОЗУ там много надо
на виспере не пробовал. Мне предыдущих опытов хватило, когда я бегал память искал для того чтобы смонтировать

Total Deduplication Ram Cost ZFS stores more than just the deduplication table in RAM. It also stores the ARC as well as other ZFS metadata. And, guess what? The deduplication table is capped at 25% the size of the ARC. This means, you don't need 60 GB of RAM for a 12 TB storage array. You need 240 GB of RAM to ensure that your deduplication table fits. In other words, if you plan on doing deduplication, make sure you quadruple your RAM footprint, or you'll be hurting.

Alexander
28.11.2017
17:25:29
Да, именно так

Vladimir
28.11.2017
17:26:05
Но скажем так ОЗУ сейчас копейки стоит по сравнению с SSD
Чтоб такое делать надо доказать что есть смысл :)

Alexey
28.11.2017
17:26:19
Да, именно так
если вы можете позволить себе столько памяти на сервере, то вам не нужна дедубликация

Vladimir
28.11.2017
17:26:33
Я думаю что дедуп будет не очень эффективно работать

Точнее спарс файлы выгоднее чем дедуп

Alexander
28.11.2017
17:27:17
но есть в zfs такая штука которую я еще нигде не видел, если юзать например софтовый рейд, то при рекавери копироваться будут только блоки с данными, а не как сделал бы тупой md или lvm raid - тупо скопипастил все вблоки что в вольюме

именно
возможно, непонятно что дедублицироваться будет

Vladimir
28.11.2017
17:28:56
возможно, непонятно что дедублицироваться будет
Ты учти что ФС оперирует в этом месте блоками. И по умолчанию блоки будут по 100кб

У тебя много метрик где есть полезные данные размером в 100кб которые повторяются в других метриках?

Плюс интересный вопрос как на апдейтах оно себя вести будет

Alexander
28.11.2017
17:31:34
ну можно же покрутить размер блока то

zfs set recordsize=64k mypool/myfs

Vladimir
28.11.2017
17:31:58
ну можно же покрутить размер блока то
Чем он меньше, тем больше памяти нужно

Страница 358 из 681