
Alexander
28.11.2017
16:39:47
точек

Vladimir
28.11.2017
16:40:52
Что не хватает

Alexander
28.11.2017
16:41:17
ээ

Google

Alexander
28.11.2017
16:41:28
метаданные - это что имеется в виду?

Vladimir
28.11.2017
16:41:30
Если метаданные разные (шаг) то получишь первый ответ

Alexander
28.11.2017
16:42:36
гм

Vladimir
28.11.2017
16:42:40
Он не умеет аппроксимировать или делать роллап пока что

Alexander
28.11.2017
16:42:44
ок поробую потестить
спасибо за ответ!

Vladimir
28.11.2017
16:43:04
Впрочем научиться со временем

Alexander
28.11.2017
16:45:10
вобщем пробовал go-carbon - из приятного все в одном бинарнике
из неочень - на том же ретеншене виспер все-таки жрет больше

Vladimir
28.11.2017
16:45:53
12 байт на точку
Плюс преалокация

Google

Alexander
28.11.2017
16:46:08
но судя по активности в ветке мегакарбона и цереса ему разве что памятник не успели поставить
а так уже закопали
а я не большй период брал
60к метрик в минуту с ретеншеном 3 дня 1 минута 5 минут 7 дней

Vladimir
28.11.2017
16:47:05
а так уже закопали
Мне к сожалению очень ленив вдумчиво писать либу цереса, поэтому я закопался с ней. Как сделаю - закомичу в го карбон поддержку
Точнее отправлю пулл реквест

Alexander
28.11.2017
16:47:25
было бы клево Ж)
:)

Vladimir
28.11.2017
16:47:36
Но медленно идет

Alexander
28.11.2017
16:48:07
а чем помочь можно?

Vladimir
28.11.2017
16:48:15
И кто то даже что то фиксил
а чем помочь можно?
Да хз... Там довольно монотонная работа пока тупо по написанию совместимого с го-виспер интерфейса

Alexander
28.11.2017
16:50:32
вот та реализация что у Куликова - там пофикшен баг с отображением метрик из нескольких слайсов

Vladimir
28.11.2017
16:51:51
Но в мастере что то тоже пофиксили

Alexander
28.11.2017
16:52:49
да как то не очень - год назад качал из мастера - там этого фикса не было
я вот кстати так не придумал как сделать роллап для базы более плавным
как запускаетя и сервер укладывается по чтению

Google

Alexander
28.11.2017
16:59:35
как то так

Alexey
28.11.2017
17:01:40

Vladimir
28.11.2017
17:01:54
Или цгруппы и лимиты на blk
Там как раз иопсы можно подрезать

Alexander
28.11.2017
17:03:19
да подрезать можно
это и через врайтеры можно прям делать
только сам процесс хотелось бы как нибудь менее напряжно для сервера делать но при этом не просирать момент ретеншена

Vladimir
28.11.2017
17:05:11

Alexander
28.11.2017
17:05:30
да то похоже

Vladimir
28.11.2017
17:05:53
Он с ио мягче как раз потому что в нем по дизайну заложено что ретеншн может поплыть

Evgeny
28.11.2017
17:07:46

Vladimir
28.11.2017
17:08:16

Evgeny
28.11.2017
17:08:23
Эх )

Vladimir
28.11.2017
17:08:25
Но жмёт раза в 3

Alexander
28.11.2017
17:09:27
т.е. имеет смысл попробовать zfsonlinux

Алексей
28.11.2017
17:09:28

Alexander
28.11.2017
17:10:59
интересно насколько хорошо виспер дедублицируется

Alexey
28.11.2017
17:11:06

Alexander
28.11.2017
17:11:34
А есть опыт такой?
На чем был основной затык и какая ФС?

Google

Vladimir
28.11.2017
17:11:58
ФС - бтрфс и зфс пробовали
Но примерно год назад
Бтрфс вообще в себя уходил и не возвращался

Alexey
28.11.2017
17:13:34

Aleksandr
28.11.2017
17:14:33
снэпшоты

Evgeny
28.11.2017
17:14:40

Alexey
28.11.2017
17:16:23

Admin
ERROR: S client not available

Alexander
28.11.2017
17:18:02
да ну как сказать там она сразу на все работает
вот тут кому интересно: https://pthree.org/2012/12/18/zfs-administration-part-xi-compression-and-deduplication/

Vladimir
28.11.2017
17:18:39

Alexander
28.11.2017
17:19:34
вобщем самое плохое что там обещают For mixed data, it's been common for me to see 1.15x savings.

Alexey
28.11.2017
17:20:04

Alexander
28.11.2017
17:20:34
а вообще у меня перед глазами 1,8 ТБ данных из которых реально занимают на диске 500

Vladimir
28.11.2017
17:21:33
Но увы

Alexander
28.11.2017
17:22:06
если бы не неудобство в dkms на центоси и рхеле вообще классная ФС

Google

Alexey
28.11.2017
17:22:58

Alexander
28.11.2017
17:23:28
Но в убунте этот вопрос решил - просто зафигачили прямо в пакете с ядром
Но скажем так ОЗУ сейчас копейки стоит по сравнению с SSD

Alexey
28.11.2017
17:25:03
Total Deduplication Ram Cost
ZFS stores more than just the deduplication table in RAM. It also stores the ARC as well as other ZFS metadata. And, guess what? The deduplication table is capped at 25% the size of the ARC. This means, you don't need 60 GB of RAM for a 12 TB storage array. You need 240 GB of RAM to ensure that your deduplication table fits. In other words, if you plan on doing deduplication, make sure you quadruple your RAM footprint, or you'll be hurting.

Alexander
28.11.2017
17:25:29
Да, именно так

Vladimir
28.11.2017
17:26:05

Alexey
28.11.2017
17:26:19
Да, именно так
если вы можете позволить себе столько памяти на сервере, то вам не нужна дедубликация

Vladimir
28.11.2017
17:26:33
Я думаю что дедуп будет не очень эффективно работать
Точнее спарс файлы выгоднее чем дедуп

Alexey
28.11.2017
17:27:03

Alexander
28.11.2017
17:27:17
но есть в zfs такая штука которую я еще нигде не видел, если юзать например софтовый рейд, то при рекавери копироваться будут только блоки с данными, а не как сделал бы тупой md или lvm raid - тупо скопипастил все вблоки что в вольюме
именно
возможно, непонятно что дедублицироваться будет

Alexey
28.11.2017
17:28:39

Vladimir
28.11.2017
17:28:56
У тебя много метрик где есть полезные данные размером в 100кб которые повторяются в других метриках?
Плюс интересный вопрос как на апдейтах оно себя вести будет

Alexander
28.11.2017
17:31:34
ну можно же покрутить размер блока то
zfs set recordsize=64k mypool/myfs

Vladimir
28.11.2017
17:31:58