Алексей @sevo44
Хм... А зачем тогда столько статей типо для увеличения производительности.... Хотя вопрос то так и звучит как можно максимально убыстрить и сохранить надежность
Алексей @sevo44
Mls
Алексей @sevo44
MLC
Vladislav
Вы в этих статьях для начала почитайте начальные условия
Vladislav
у вас SSD и ускорять нечего
Vladislav
вам только играться с размерами блоков на ZFS разделах
Алексей @sevo44
Не 2 диска простые sata 2t
Алексей @sevo44
Не указал в вопросе что работают 2 sata диска
Vladislav
тогда нормально формулируйте начальные данные
Алексей @sevo44
Думал что логика будет и так понятна.
Roman
Roman
Это если исходить из того, что hdd большие, а ssd маленькие
Roman
Если ssd большие, то сделать из них зеркало, hdd продать)
Алексей @sevo44
Roman
Ну мы же про максимально надежно говорим?
Алексей @sevo44
верно, но при условии что 2 диска больших sata и два ssd размером 120G
Roman
Evgenii
Evgenii
с ssd все неоднозначно было.. не помогало.. но я тестировал, когда ZoL не поддерживал trim, а это снижало производительность любого SSD диска на порядок как минимум
Evgenii
сейчас нужно будет повторить все тесты по хорошему
Evgenii
Сейчас Prod на Optane дисках (те, что в слот видеокарты вставляются), поэтому давно уже не копал в этом направлении. Смысла не было, Optane работает на порядок быстрее любого SSD
Evgenii
Еще по моим тестам ускорение записи (log на optane, или sync=disabled) - так же ускоряло и чтение, зависимость была очень серьезная
Evgenii
даже при том, что данные лежали на SSD вроде Samsung 960
Алексей @sevo44
То есть я делая в зеркало раздел 16g под логи а все оставшееся тоже в зеркало под кэш?
Evgenii
дело в том, что под сам кэш тоже требуется дополнительная память, если ее очень мало, а кэш большой может быть и не лучше (вроде бы)
Evgenii
нужна память под карту блоков (мапинг) это расходует ОЗУ как и дедупликация на больших обьемах данных, к примеру
Evgenii
где то читал в "белых бумагах", что кэш лучше добавлять в последнюю очередь, сначала заботиться об увеличении ОЗУ
Evgenii
а вот LOG на быстрое устройство записи всегда полезно вынести. Даже если это будет не OPtane, а обысный SSD, будет выигрышь, т.к. ты снимешь нагрузку с основного диска. Потому, что иначе (без лога) данные пишутся на основные диски 2 раза (те, что в снихронном режиме должны записываться), что увеличивать нагрузку по IOPS вдвое
Evgenii
чтобы ощутить скорость близку к той, что будет с Optane в качестве log, можно перевести sync в режим disabled
Evgenii
так же многие сервера вроде Freenas, которые работают как файловые шары, у меня работаеют в режиме sync=disabled, без всяких лог устройств. Никаких проблем это пока не вызывало, но если что я не несу ответственность, многие убеждены, что этого делать нельзя, хотя мне кажется что можно (я действительно пытался вникнуть в работу этого механизма и понял, что целотность данных не будт нарушена, в случае аварии питания ZFS просто запустит пул с последней удачной сброшенной на диск консистентной "группы транзакций", то есть на несколько секунд раньше)
Алексей @sevo44
Памяти у меня 32g и почти половина свободна. Думаю для двух 2т дисков в зеркале этого достаточно и кеш можно не выносить. Тогда выходит что мне надо отдать на логи 16g а остальное отдать виртуальные машины. Верно понимаю? Или лучше 32 g?
Fedor
Алексей @sevo44
Конечно сдохнет...
Алексей @sevo44
Но не сразу а даст поработать нормально какое-то время
Vladislav
После замены аппаратного рейда опять пул стал привязан к номеру диска
# zpool status
pool: rpool
state: ONLINE
scan: scrub repaired 0B in 0h0m with 0 errors on Mon Aug 26 01:52:03 2019
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sdh3 ONLINE 0 0 0
sda3 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
sdf ONLINE 0 0 0
sdg ONLINE 0 0 0
errors: No known data errorsКак Линукс отучить от подобного?
Александр🇷🇺
Алексей @sevo44
Fedor
Ребят, вопрос о переносимости zfs между разными ОС.
Есть ZFS на illumos, есть идея перенести на линукс с 0.8 ради тримов.
Бывал опыт?
Fedor
не сенд ресив, а именно экспорт импорт.
Evgenii
Fedor
я понимаю, что можно натолкнуться на проблемы с типами ACL, но это ршаемо. Но всё таки?
Evgenii
по идее - если экспорт работает, то все - ок
Evgenii
в свое время экспорт не срабатывал, в случае неизвестных возможностей
Evgenii
когда новый пул в старую систему пихаешь
Fedor
спасибо!
Fedor
на линуксах не сломался тот механизм, наподобие sharenfs/sharesmb?
Evgenii
только если ты включишь новые фичи, обратно уже не перенесешь скорее всего
Fedor
я стараюсь не включать фичи, пока они не понадобятся :)
Konstantin
а ещё не появилось рабочего способа добавить диск в raidz?
Evgenii
Konstantin
ну я вот тоже так думал
Konstantin
но поискав не нашёл
Fedor
вроде бы технически это не очень хорошо, потому что потребует перестроения всего массива, чтобы избыточность была при отказе любого диска
Konstantin
да, я пдфку как оно работает видел
Konstantin
что можно придумать? - у меня 1 винт сейчас забит информацией, есть ещё 3 точно таких же чистых, я хочу это всё собрать в raidz
Fedor
профидь записи-чтения какой будет?
Konstantin
это файлопомойка
Konstantin
записи не будет
Konstantin
ну, почти
Vladislav
добавление винтов не решит проблему равномерного распределения данных
Fedor
лучше пересоздать
Konstantin
а данные куда девать? )
Fedor
вылить, потом залить
Konstantin
некуда
Fedor
или делать в миррорах
Fedor
но дисбаланс так же останется
Konstantin
кароче идеальная ситуация - найти где-то ещё винт
Vladimir
А raidz нельзя собрать по типу mdadm указав что диск будет добавлен позже?
Konstantin
я вот только не понял - данные приэтом размажутся по новому диску автоматически или нет
Evgenii
Konstantin
ок, спасибо, сейчас попробую этот вариант, как раз есть на чём потренироваться
Evgenii
Konstantin
https://github.com/zfsonlinux/zfs/issues/8737
Konstantin
может кто-нибудь прокомментировать второй комментарий?
Konstantin
я не понимаю чем грозит нешифрованный датасет при шифрованном родительском
Evgenii
по факту это разные сущности