edo1
у него позиция: в меру подгаживать gpl-несовместимому коду, паразитирующему на ядре. стратегически это правильно (вспоминаем всякие nvidia). а openzfs просто заодно огребает ((((
edo1
> На дефрагментацию вообще не смотрите, до заполнения 80% диска она вас не потревожит, и пусть вас не смущает показатель fragmentation у zpool — он показывает приблизительную фрагментацию метаданных, не более. а если vdev чисто для данных (есть special), то что показывает фрагментация?
edo1
@gmelikov
edo1
нет, по vdev
edo1
How the percentages relate to the average segment size of free space goes roughly like this. Based on the current Illumos kernel code, if all free space was in segments of the given size, the reported fragmentation would be: 512 B and 1 KB segments are 100% fragmented 2 KB segments are 98% fragmented; 4 KB segments are 95% fragmented. 8 KB to 1 MB segments start out at 90% fragmented and drop 10% for every power of two (eg 16 KB is 80% fragmented and 1 MB is 20%). 128 KB segments are 50% fragmented. 2 MB, 4 MB, and 8MB segments are 15%, 10%, and 5% fragmented respectively 16 MB and larger segments are 0% fragmented. тут пишут, что процент фрагментации считается по (условно) среднему размеру свободного блока
George
нет, по vdev
не видел такого, ткни
edo1
George
а, точно, спс
George
https://console.dev/qa/rsync-john-kozubik/ Problems began to arise as early as 2008, however, as we began to push the boundaries of UFS2 - both in terms of filesystem size and number of inodes (files). Not only did we start to see prohibitively long fsck times but we started to run out of memory address space that fsck could track inodes with. At some point in 2011, while working with Kirk McKusick, the author of UFS, I wondered out loud what the real, long-term solution was to the problems we were having as we pushed UFS2 well beyond its design … and he simply said “use ZFS”.
nikolay
какой командой смотрите?
edo1
99% проектов теряет свою актуальность за такое время ))))
Δαρθ
с какой версии zstd впилили? в убунте 20.04 оно уже есть?
Igor
добрый день. Есть пул, собранный на 5 дисках и 3ссд зеркало для спешла +пул на трех ссд зеркалах. Вывалился один диск. ПРишла нотификация, ничего страшного, начал готовить замену. Ребутнулся и все, пулы не хотят автоматически маунтится
Igor
Igor
дал руками zpool inport dpool spoolDB - вроде примаунтило.ю ребут и все опять пустое
Igor
Что с ним не так?
central
так диск уже заменили?
Alex
or zpool detach UNAVAIL disks
Igor
нет, сервка за 200км, диск будет самое раньшее завтра вечером
Igor
попробую
Igor
сделал, чистые, импортнулись, ребут и опять они не импортируются автоматом
Igor
проксмокс
Igor
Igor
у пула слетела строка точки монтирования на дефолтную (название пула)
Igor
Все равно не маунтит пулы автоматом
Igor
руками zpool import маунтятся без ошибок.
Igor
в логах только такое
Igor
Igor
Igor
вообще ничего не трогал. просто отвалился диск и ребутнул систему. до того все работало идеально
Igor
Та нет. Сервер с НГ в свободном плавании
Igor
ВОт что в логах нашел
Igor
Igor
но zfs mount -a - все шикарно
edo1
автоимпорт идёт из initramfs, я думаю в эту сторону нужно копать
edo1
для начала просто обновить initramfs и перезагрузиться )
edo1
sudo update-initramfs -u
Igor
Отец сейчас убирает с системы мертвый ссд - ФИЗИЧЕСКИ. может таймауты по сата3 тормозят импорт
Igor
отец убрал ссд физически - и все пошло как до этого... и точки монтирования и сервисы побежали
Igor
вот такая она избыточность.
Ivan
вот такая она избыточность.
загрузка в legacy режиме ?
=Андрей=
Igor
загрузка в legacy режиме ?
Да. Мать старый супермайкро не знает ничего о юефи
Krey
вот такая она избыточность.
Почитай руководство zfs root для дебиан. Там про это есть
Ivan
это граб. он с mdadm так же поступает
Igor
root zfs протюнил и не отваливается. Он монтировался идеально... а вот два других пула, где был трупик - не маунтились автоматом
Fedor
А какой релиз?
Годовалой давности
Fedor
На омни разве не openzfs?
У меня нумерация версий старая ещё, 5000й нет, насколько я помню
edo1
почему таймауты не мешали импорту потом?
Alexandr
да, такое может быть когд аон подыхает совсем
Alexandr
там я видел у Игоря еще 2 раздела в зеркале, так что беспокоится неочем
Eugen
народ, это 32гб занято или 32 свободно?
Ivan
набери
Eugen
это freebsd
Ilya
Смотри top, он покажет, сколько ARC занимает
Eugen
Eugen
87 сжирает ARC сейчас, верно?
Ilya
Да, это то, что в htop'е жёлтым. При необходимости, система освободит его под нужды других сервисов
Eugen
Ок, понял спасибо!
Fedor
Как удобно :)
Александр
Доброй ночи! Не могу взять в толк. volblocksize - это свойство zvol. В случае Proxmox, который создает по zvol под каждый диск, это позволяет, и правда, задавать параметр под каждый диск каждой машины, но - это нужно делать при создании zvol, а создает его сам прокс. В итоге, как управлять параметром volblocksize к пользе каждой виртуалки? И еще - если прокс берет этот параметр равным 8к, а это даст хорошие IOPSы, то - вроде как мы и получили быстрый (точнее, отзывчивый) строрадж? В чем польза от существенно больших volblocksize - только в повышении скорости линейного чтения?
edo1
ну, например, лучше сжатие
edo1
меньше таблицы дедупликации
edo1
и вообще меньше метаданных
edo1
(я не говорю, что всё это ВСЕГДА полезно, скорее придумываю что МОЖЕТ быть полезно)
Александр
в свойствах стороджа можно поменять волблоксайз
Дефолтное значение в проксе - 8К, если не ошибаюсь. Для БД это значение хорошее, правильно? Дедупликацией не балюсь )
Алексей
8к это пипец какой оверхед
edo1
в целом для виртуалок большой размер блока — беда с cow
Александр
Ок, а как тогда делать ВМ с дисками с разной величиной volblocksize? При создании диска прокс не спрашивает, сколько ставить )
Алексей
сделать вручную и подпихнуть
Алексей
никаких проблем