nikolay
ок, про разное так про разное..
nikolay
нет понятия дефолтного, надо подбирать исходя из вводных
Vladimir
а есть какие-нибудь простые способы сравнить производительности zfs в разных конфигурациях? Например набор параметров для fio , для имитации основных паттернов ? Как имитировать худший случай, когда файла нет в кэше или когда при записи zil заполнился?
Владимир
удали устройство кеша, потом добавь снова
Владимир
без слова cache
Владимир
дестрой вроде
Владимир
а не ремув
Владимир
глянь help к команде
Владимир
меня ключит или у тебя RAID0?)
Владимир
Ну в смысле нет избыточности в пуле
Владимир
рисковый ты парень)
Владимир
не думаю что ты прям много выиграешь, а вот проиграть можешь)
central
сжимаются же блоки, вроде
Владимир
Случайно да)
Ilya
компрессия в пределах одного файла же работает. разве нет? Нпример, текстовые логи хорошо жмутся. А "не перезаписывать одинаковые файлы" - это вроде как про дедуп
Владимир
Владимир
про одинаковые файлы дедуп да
Владимир
чем больше блок, тем лучше жмёт
Evgenii
это максимальный размер arc
=Андрей=
Кто-нибудь пробовал эксперементировать с рейд-контроллерами в качестве log, например? ;)
Вот валяется LSI 9271 и кучка новых 300гб SAS 2,5" винтов.... )
central
zfs Же не рекомендуется ставить на аппаратный raid
=Андрей=
Еще раз... это не пул! это как бы привод, который мы подсовываем пулу в качестве log
=Андрей=
По сути, работа происходит с кэшем контроллера, поддержанным, скажем суперконденсатором, и потом сбрасывается на зеркало из HDD. Но латенс - приличный.... должен быть....
=Андрей=
Хочу понять насколько мысль глупая... )
central
а в чем принципиально отличается работа ZFS с диском в pool и дисков в log?
=Андрей=
Принципиально отличается. )
=Андрей=
Если вспомнить, что log не кэш и данные, записываемые на pool через него не проходят. Или я не прав?
=Андрей=
У меня есть тестовая хранилка, на которой я мог бы опробовать эту мысль.... но вот решил сначала понять, а не тупик ли это - просто жаль тратить время... )
Δαρθ
Δαρθ
и туда идут только синхронные записи
=Андрей=
в журнал он же slog он же zil запись всегда последовательная вроде
Это все понятно. ) Не нужно пытаться разжевать мне, что такое "журнал намерений ZFS".... или как его попроще-то на русском-то назвать.... Я спросил о другом, хочу приспособить конкретную железяку, и формируемый ею "виртуальный" диск в качестве привода log из нежелания тратиться на ssd, который по сути должен быть серверного класса. Т.к. обмен будет происходить с кэшем контроллера (остальные операции по сохранению содержимого кэша на HDD - оставим за кадром) то этот обмен обещает приличную производительность и низкий латенс, полагаю что не хуже чем у одиночного SSD на шине SATA.
edo1
Nick
central
edo1
серверные накопители по моему опыту имеют примерно такую же надёжность, что и материнские платы, например
Владимир
central
edo1
износ nand — в smart же есть счётчики
edo1
edo1
как и десктопные
edo1
у того же самсунга проц и память одинаковые стоят, различие в прошивке и plp
edo1
edo1
и эта смерть вероятностная
edo1
ещё некоторые производители (intel, например) балуются переводом в readonly по достижению каких-то значений счётчиков, но это совсем не выход из строя, не находите?
edo1
и достичь такого не на тестовом стенде, а в реальной жизни не так просто
edo1
это какую?
в моём опыте один выход из строя на явно больше сотни накопителей-лет
Владимир
Владимир
один за несколько лет))
Владимир
это ещё не значит что десктопные надо ставить в сервера))
edo1
притом накопитель последние часы рапортовал о перегреве, стоял у хостера, возможно, что там что-то намудрили
Владимир
нужно подбирать железо под потребности)
edo1
может кто подсказать, почему инкрементальный zfs send может идти дольше, чем простой?
@gmelikov
edo1
уже не первый раз сталкиваюсь
edo1
объём данных меньше, все метаданные на special, что ему надо-то?
George
нет, один блок - это один блок, нет механизма аггрегации. Т.е. если ashift=12 (4К сектор), и блок файла сжался до 1КБ, то будет занято 4К, т.к. меньше сектора записано быть не может.
edo1
George
есть ещё механизм записи совсем мелких файлов, до 300байт чтоли, они прям в мете будут храниться
George
edo1
ну прямо вот сильно медленнее
edo1
есть recodsize, а есть ashift (размер сектора?)
файл пишется блоками, каждый блок состоит из целого числа секторов размером 2^ashift; и каждый блок в несжатом виде не больше recordsize (вернее почти всегда равен recordsize)
edo1
если сжатия нет, то он так и будет на диске лежать блоками размером recordsize лежать. если сжатие есть — то каждый блок независимо будет сжиматься ДО записи на диск, и на диске под него будет выделяться столько место, сколько получилось в сжатом виде (с округлением до 2^ashift, конечно)
edo1
Не так
Δαρθ
если я правильно понял кусок данных может быть размерами от 1 блока (2^ashift) до рекордсайза.
edo1
> в один record можно записать только одну единицу
вот это предположение неверное
edo1
несжатый. а сжатый может быть меньше
edo1
диск не разбит на блоки размером recordsize
edo1
если не речь про всякие базы данных, то я считаю, что да
edo1
большой recordsize имеет один (но очень существенный) недостаток: если ты изменяешь хоть один байт в записи, она целиком читается с диска и целиком пишется обратно
edo1
если это неизменяемые файлы (условно mp3) — то почему бы и нет
George
и чтения тоже
George
плюс в ARC сжатые данные могут лежать, т.е. в ARC можно впихнуть больше данных
edo1
ну и если памяти мало, то arc будет неэкономно расходоваться
George