nikolay
ок, про разное так про разное..
Alexander
если делать ashift=9 то много ио и много места теряется. Если делать ashift=12 то место то все равно теряется
Чем меньше ashift, тем меньше физического места занимает датасет с большим количеством в т.ч. маленьких файлов, просто по опыту. Дефолтный какой кстати? 9 ведь обычно?
nikolay
нет понятия дефолтного, надо подбирать исходя из вводных
Vladimir
а есть какие-нибудь простые способы сравнить производительности zfs в разных конфигурациях? Например набор параметров для fio , для имитации основных паттернов ? Как имитировать худший случай, когда файла нет в кэше или когда при записи zil заполнился?
Владимир
удали устройство кеша, потом добавь снова
Владимир
без слова cache
Владимир
дестрой вроде
Владимир
а не ремув
Владимир
глянь help к команде
Владимир
меня ключит или у тебя RAID0?)
Владимир
Ну в смысле нет избыточности в пуле
Владимир
рисковый ты парень)
Владимир
не думаю что ты прям много выиграешь, а вот проиграть можешь)
central
сжимаются же блоки, вроде
Владимир
Случайно да)
Ilya
компрессия в пределах одного файла же работает. разве нет? Нпример, текстовые логи хорошо жмутся. А "не перезаписывать одинаковые файлы" - это вроде как про дедуп
Владимир
про одинаковые файлы дедуп да
Владимир
чем больше блок, тем лучше жмёт
Evgenii
это максимальный размер arc
=Андрей=
Кто-нибудь пробовал эксперементировать с рейд-контроллерами в качестве log, например? ;) Вот валяется LSI 9271 и кучка новых 300гб SAS 2,5" винтов.... )
central
zfs Же не рекомендуется ставить на аппаратный raid
=Андрей=
Еще раз... это не пул! это как бы привод, который мы подсовываем пулу в качестве log
=Андрей=
По сути, работа происходит с кэшем контроллера, поддержанным, скажем суперконденсатором, и потом сбрасывается на зеркало из HDD. Но латенс - приличный.... должен быть....
=Андрей=
Хочу понять насколько мысль глупая... )
central
а в чем принципиально отличается работа ZFS с диском в pool и дисков в log?
=Андрей=
Принципиально отличается. )
=Андрей=
Если вспомнить, что log не кэш и данные, записываемые на pool через него не проходят. Или я не прав?
=Андрей=
У меня есть тестовая хранилка, на которой я мог бы опробовать эту мысль.... но вот решил сначала понять, а не тупик ли это - просто жаль тратить время... )
Δαρθ
и туда идут только синхронные записи
Сергей
У меня есть тестовая хранилка, на которой я мог бы опробовать эту мысль.... но вот решил сначала понять, а не тупик ли это - просто жаль тратить время... )
проверьте обычным fio. Если латенси вашего устройства ниже чем обычного/простого ссд, то можно продолжить изыскания. Для SLOG чаще всего достаточно 16-32Гб
=Андрей=
в журнал он же slog он же zil запись всегда последовательная вроде
Это все понятно. ) Не нужно пытаться разжевать мне, что такое "журнал намерений ZFS".... или как его попроще-то на русском-то назвать.... Я спросил о другом, хочу приспособить конкретную железяку, и формируемый ею "виртуальный" диск в качестве привода log из нежелания тратиться на ssd, который по сути должен быть серверного класса. Т.к. обмен будет происходить с кэшем контроллера (остальные операции по сохранению содержимого кэша на HDD - оставим за кадром) то этот обмен обещает приличную производительность и низкий латенс, полагаю что не хуже чем у одиночного SSD на шине SATA.
=Андрей=
проверьте обычным fio. Если латенси вашего устройства ниже чем обычного/простого ссд, то можно продолжить изыскания. Для SLOG чаще всего достаточно 16-32Гб
Сергей! Спасибо! Я представляю, как все померить... ) Но я ленив... )))) Поэтому запостил сюда с целью - узнать, что может уже кто-то пробовал такой фортель? И каковы результаты... ) Получается, что нет.
Nick
central
если мы делаем просто миррор на двух нвме и они умирают от износа флеша - они умирают в один день, верно?
Прямо в один навряд ли, но имхо при одинаковой нагрузки умрут примерно в одно время
central
а они умирают от износа?
Довольно часто умирает контролер при физической нормальной памяти
edo1
рано или поздно
ну рано или поздно и солнце погаснет
edo1
серверные накопители по моему опыту имеют примерно такую же надёжность, что и материнские платы, например
edo1
износ nand — в smart же есть счётчики
edo1
как и десктопные
edo1
у того же самсунга проц и память одинаковые стоят, различие в прошивке и plp
edo1
Довольно часто умирает контролер при физической нормальной памяти
читал, что чаще всего дохнет прошивка или таблица трансляции
edo1
и эта смерть вероятностная
edo1
ещё некоторые производители (intel, например) балуются переводом в readonly по достижению каких-то значений счётчиков, но это совсем не выход из строя, не находите?
edo1
и достичь такого не на тестовом стенде, а в реальной жизни не так просто
edo1
это какую?
в моём опыте один выход из строя на явно больше сотни накопителей-лет
Владимир
в моём опыте один выход из строя на явно больше сотни накопителей-лет
ну у меня аткой опыт и по десктопам и по серверам))
Владимир
один за несколько лет))
Владимир
это ещё не значит что десктопные надо ставить в сервера))
edo1
притом накопитель последние часы рапортовал о перегреве, стоял у хостера, возможно, что там что-то намудрили
Владимир
нужно подбирать железо под потребности)
edo1
может кто подсказать, почему инкрементальный zfs send может идти дольше, чем простой? @gmelikov
edo1
уже не первый раз сталкиваюсь
edo1
объём данных меньше, все метаданные на special, что ему надо-то?
Roman
и открытый вопрос: а диски 14Tb или ещё пуще 18Tb разве не SMR?
WD DC hc500+ серия. У самого под зфс рэйдз2 стоят 8 Тб, полёт норм
Aleksei
WD DC hc500+ серия. У самого под зфс рэйдз2 стоят 8 Тб, полёт норм
ага, есть такие, я как раз первые машинки собирал на HGST He 8T, а потом их купил WD и переименовал в DC HC500
George
нет, один блок - это один блок, нет механизма аггрегации. Т.е. если ashift=12 (4К сектор), и блок файла сжался до 1КБ, то будет занято 4К, т.к. меньше сектора записано быть не может.
George
есть ещё механизм записи совсем мелких файлов, до 300байт чтоли, они прям в мете будут храниться
edo1
ну прямо вот сильно медленнее
edo1
есть recodsize, а есть ashift (размер сектора?) файл пишется блоками, каждый блок состоит из целого числа секторов размером 2^ashift; и каждый блок в несжатом виде не больше recordsize (вернее почти всегда равен recordsize)
edo1
если сжатия нет, то он так и будет на диске лежать блоками размером recordsize лежать. если сжатие есть — то каждый блок независимо будет сжиматься ДО записи на диск, и на диске под него будет выделяться столько место, сколько получилось в сжатом виде (с округлением до 2^ashift, конечно)
edo1
Не так
Δαρθ
если я правильно понял кусок данных может быть размерами от 1 блока (2^ashift) до рекордсайза.
edo1
> в один record можно записать только одну единицу вот это предположение неверное
edo1
несжатый. а сжатый может быть меньше
edo1
диск не разбит на блоки размером recordsize
edo1
если не речь про всякие базы данных, то я считаю, что да
edo1
большой recordsize имеет один (но очень существенный) недостаток: если ты изменяешь хоть один байт в записи, она целиком читается с диска и целиком пишется обратно
edo1
если это неизменяемые файлы (условно mp3) — то почему бы и нет
George
и чтения тоже
George
плюс в ARC сжатые данные могут лежать, т.е. в ARC можно впихнуть больше данных
edo1
ну и если памяти мало, то arc будет неэкономно расходоваться
George
большой recordsize имеет один (но очень существенный) недостаток: если ты изменяешь хоть один байт в записи, она целиком читается с диска и целиком пишется обратно
плюс если сжатие не включено, и в файле больше одного блока, то последний блок будет полного размера с нулями