Алексей
Вадим «Дым» Илларионов ☭
Fedor
Дефрагментация может иметь смысл только при линейном способе хранения данных и линейном чтении.
Δαρθ
Fedor
По расположению данных на носителе относительно представления в системе
Fedor
Там не все так просто
Alexander
Fedor
Мдрайд условно линеен
Vladislav
Vladislav
Vladislav
Δαρθ
Vladislav
Вообще, по идее, если сделать send | receive на чистый пул (с нужными флагами, которые надо смотреть в доке) - это решит проблему дефрага текущего
Fedor
А в чём проблемы?
При большинстве сценариев данные фрагментируются снова. И эта фрагментация является ожидаемлй нормой для зфс.
Fedor
Как Владислав уточнил выше, только с нуля записанный пул без последующей перезаписи на него будет иметь видимость дефрагментированного
Fedor
А так - зфс не про линейность, не про скорость без настройки под задачу и не про дефранментацию
Fedor
Зфс это сервис, а не фс
Vladislav
Поэтому стоит использовать правильно приготовленный l2arc
Fedor
И не только)
Δαρθ
Fedor
Ближайший похожий по поведению и функционалу - это лвм, там и линейность есть, но нет множества плюшек. Если там присутствует достаточный для задачи функционал и требуется максималка потскорости - лучще посмотреть на неё
Fedor
костыль )
Дефрагментация изначально костыль)
Δαρθ
Δαρθ
в ntfs даже )
Fedor
Потому что, как написано выше, они обычно располагаются на линейных носителях, и там это даёт эффект. У них нет всяких cow и подобных.
Зфс больше похожа на бд с мультиверсионностью, почему для бд нет дефрагментации?
Fedor
Потому что она там напрочь не нужна. И тут так же.
Δαρθ
Vladislav
Vladislav
Плюс 16гб рама под Арк на, сколько там Тб места?
Vladislav
Vladislav
У нас тут есть товарищ с 512гб рама или уже с 1тб?
Vladislav
Какая задача, такое и техническое решение должно быть
Vladislav
Вы хотите надёжности, но не хотите платить скоростью или стараниями или финансово
Не хотите l2arc использовать и тюнить не хотите под Ваши задачи
Alexander
Посчитайте
Послушайте товарищ, вы надоели лично мне уже. Прошу вас не отвечать на мои сообщения
Vladislav
Vladislav
Я предлагаю ход действий
Vladislav
Не хотите - не слушайте и ждите пока толерантные к "хамству и желанию быстрого получения решения без собственного развития" люди придут и помогут
Vladislav
Но дяяя, сотни тысяч файлов по 12мб, это ведь целых 10 ТЕРРАБАЙТ (максимум)! Вах, действительно, никакого l2arc не хватит
Vladislav
Алексей
эх хецнер хецнер что ж ты делаешь...
Кот Матроскин
Ну вот приедут все заказанные диски - попробую сливать.
А пока развивается следующим образом:
Попробовал, выключив север, убрать возможную проблему контактов: переприсоединил SATA Data к тому диску, который помечен SLOW.
После перезагрузки сервера (опять только со второй попытки - первая висела более получаса 😞 ) состояние zpool status изменилось:
https://pastebin.com/9UjVABw3
То есть тот диск, который был SLOW, перестал (?) быть медленным.
Более того, ресилверинг на нем прекратился (на двух других дисках ресиверинг как будто продолжается)!
Зато статус SLOW получил совсем другой диск.
Оставил пул вчера в этом состоянии.
Сегодня, спустя более 30 часов, процент ресилвенга не изменился, прогноза времени его завершения нет.
То есть как будто все зависло.
Файловая система не совсем мертва: некоторые команды ls показали содержимое некоторых папок, но довольно быстро дошел до папки, на которой ls опять подвесил терминал (который был отрыт через ssh).
Так что спасти данные копированием пофайловым точно не получится, и что-то мне кажется, что и send/receive не получится.
Но завтра, не дожидаясь получения дисков для всего пула, попробую send/receive какого-нибудь одного датасета.
Пугаете так, теперь задумался, а хранить ли важное на ZFS...
Vladislav
https://searchengines.guru/ru/forum/1088210
?
Vladislav
Это?
Станислав
https://searchengines.guru/ru/forum/1088210
?
We regret to inform you that due to the tense geopolitical situation with Russia, we will be ending our contractual relationship with customers from Russia.
Political decisions have led to changes in the legal regulations that affect our business with Russian-based customers. Unfortunately, we can no longer have contracts with customers with Russian postal addresses. This will affect everyone with a Russian address stored on Hetzner Accounts.
After we analyze the customer databases, we will send the affected customers a notice of termination for all products and services on Friday, 15 December 2023. It will take effect from 31 January 2024. We recommend that you take appropriate measures now.
We very much regret the inconvenience, ask for your understanding in this challenging situation, and thank you for your continued cooperation.
We will answer any questions you may have. Please write to us by logging onto your account on our administration interface and going to “Support” in the menu.
Kind regards
Hetzner Online
Vladislav
Ivan
Georg🎞️🎥
Вадим «Дым» Илларионов ☭
Ivan
Ребята, подскажите пожалуйста. Я добавил юзеру возможность, создавать, монтировать и уничтожать датасеты внутри другого датасета через zfs allow -u user create,mount,destroy ztest01/dataset01
Если я далее юзером делаю zfs create ztest01/dataset01/testset то получаю сообщение, что сет создан, но примонтировать его может только root. Подскажите, я какие-то ещё права не дал, что ли? Не могу понять
Fedor
Не разбирал вопрос, отличается ли маунт зфс от маунта любых других точек монтирования.
Если не отличается, то можно посмотреть тут
https://man7.org/linux/man-pages/man2/mount.2.html
Appropriate privilege (Linux: the CAP_SYS_ADMIN capability) is
required to mount filesystems
Fedor
Но учти, что эти капабилити дадут пользователю очень большие права
Ivan
Да спасибо
Vladislav
"As iXsystems has not been able to replicate the behavior over SMB, NFS, or iSCSI, users who make use of TrueNAS for regular file or block storage operations are unlikely to be impacted."
А баг не такой проблемный как я думал однако (это всё в тему истории про 2.2.0)
Free
❓Можно ли изменить (не знаю какой) параметр zfs, определяющий количество ошибок, после которого устройство переходит в статус FAULTED ❓
Нагуглил только, что clear помогает, но через некоторое время снова диск отключается.
Помогите продержать в коме умирающий пул, пока из него данные выкачиваются.
Пул raidz2 полудохлый, выкачиваю из него данные send/recv, но медленно, скорость вначале 80-90 MiB/s, потом до 20-30 падает на длинном промежутке. Все другие задачи с пула снял.
Проблема в том, что на одном из vdev два диска сбоят, появляются ошибки READ/WRITE, после небольшого количество которых диски помечается как FAULTED.
Пишут, что их отключает сама zfs, когда считает, что ошибок слишком много.
Боюсь, что такое случится с каким-нибудь еще диском, и тогда весть пул FAULTED. Пусть лучше выдают пока ошибки, но не отключаются.
Как бы порог отключения повысить?
Free
❓Можно ли изменить (не знаю какой) параметр zfs, определяющий количество ошибок, после которого устройство переходит в статус FAULTED ❓
Нагуглил только, что clear помогает, но через некоторое время снова диск отключается.
Помогите продержать в коме умирающий пул, пока из него данные выкачиваются.
Пул raidz2 полудохлый, выкачиваю из него данные send/recv, но медленно, скорость вначале 80-90 MiB/s, потом до 20-30 падает на длинном промежутке. Все другие задачи с пула снял.
Проблема в том, что на одном из vdev два диска сбоят, появляются ошибки READ/WRITE, после небольшого количество которых диски помечается как FAULTED.
Пишут, что их отключает сама zfs, когда считает, что ошибок слишком много.
Боюсь, что такое случится с каким-нибудь еще диском, и тогда весть пул FAULTED. Пусть лучше выдают пока ошибки, но не отключаются.
Как бы порог отключения повысить?
И еще не могу понять: почему диск одновременно и FAULTED, и как будто в процессе ресилвинга?
Разве FAULTED не совсем отключает диск ?
Vladislav
❓Можно ли изменить (не знаю какой) параметр zfs, определяющий количество ошибок, после которого устройство переходит в статус FAULTED ❓
Нагуглил только, что clear помогает, но через некоторое время снова диск отключается.
Помогите продержать в коме умирающий пул, пока из него данные выкачиваются.
Пул raidz2 полудохлый, выкачиваю из него данные send/recv, но медленно, скорость вначале 80-90 MiB/s, потом до 20-30 падает на длинном промежутке. Все другие задачи с пула снял.
Проблема в том, что на одном из vdev два диска сбоят, появляются ошибки READ/WRITE, после небольшого количество которых диски помечается как FAULTED.
Пишут, что их отключает сама zfs, когда считает, что ошибок слишком много.
Боюсь, что такое случится с каким-нибудь еще диском, и тогда весть пул FAULTED. Пусть лучше выдают пока ошибки, но не отключаются.
Как бы порог отключения повысить?
Попробуй ещё так поискать
https://github.com/openzfs/zfs/issues/3422
https://github.com/openzfs/zfs/issues/1897
https://serverfault.com/questions/974293/force-zfs-to-ignore-checksum-errors-without-removing-the-offending-disk
Free
Vladislav
Vladislav
running zpool clear hdd in a loop every 500ms to clear checksum errors before they reach the threshold
Vladislav
В частности)))
Free
Vladislav
Там ниже, что ошибки чексумм возникали это, а сами ошибки чексумм не из-за ZFS появлялись, а потому что система убивала диск из система
Free
Vladislav
Vladislav
Какой-то параметр там упомянут
Free
adjusting zfs_checksum_events_per_second from 20 to 0 ?
Это, наверное, совсем проверку убирает?
Но не очень понятны вообще последствия 🤔
Free
Более правильно было бы порог количества ошибок увеличить
Free