Владимир
будет не чем заняться попробую))
Владимир
recordsize=16M and compression=zstd-19
Владимир
вот ещё прикол
Владимир
у меня больше 1Мб не позволяет ставить))
Владимир
интересно
Владимир
хотя может там опечатка и там 16К
Владимир
обычное дело же
https://github.com/openzfs/zfs/issues/11901#issuecomment-945158451
Ivan
специально опцию надо включить, чтоб больше 1М рекордсайз можно было включать
Станислав
Не знаю. Но у меня при удалении датасета с zstd бабахнуло так, что я два дня собирал. Такой баг подтвержден
Я десяток раз, а то и более, удалял датасеты, zvol'ы - никаких проблем. Zstd включён во время создания на пул. Версия 2.1.2 Ubuntu 20.04, ядро 5.4
Александр
Я пока не готов ставить эксперимент. Это был пул, я создал датасет изначально с lz4, переключил на zstd, налил кучу файлов, дропнул
Александр
будут силы и настроение - подниму виртуалку и попробую
Станислав
http://onreader.mdl.ru/AdvancedZFS/content/Ch04.html
Станислав
Там есть упоминание про mbuffer, классная штука. Можно утилизировать сеть полность, так как можно сказать в сколько потоков данные передавать. Но для связи между серверами, конечно же, нужен шифрованный канал.
Станислав
wireguard или ipsec, как выше писалось
Murmuring
Добрый день! Почему может возникнуть ошибка - zfs checksum error? raid10 собран. Ресилвер не помог
Murmuring
Побился диск виртуалки, хотя сама виртуалка стартует и исправно работает. Акронис с нее смог снять бекап (хотя proxmox backup не мог сделать (i/o error) на определенном участке диска виртуалки происходил)
Art
Добрый день! Почему может возникнуть ошибка - zfs checksum error? raid10 собран. Ресилвер не помог
Мониторинг Прокса не был настроен? Он шлёт письма при появлении проблем с физическими дисками. В любом случае посмотри смарты дисков через smartctl, прогони тесты
Art
Побился диск виртуалки, хотя сама виртуалка стартует и исправно работает. Акронис с нее смог снять бекап (хотя proxmox backup не мог сделать (i/o error) на определенном участке диска виртуалки происходил)
» Акронис с нее смог снять бекап Акронис, делая бэкап изнутри системы, многое пропускает: файл подкачки, каталог Temp и т.д. Может с этим связано, то есть на побитом участке диска находилось что-то из игнорируемого. А интереса ради, диском ВМ служит том ЗФС или файл qcow2 в ЗФС-датасете?
Murmuring
Зфс том
Я диски отдаю в raw
Art
Я диски отдаю в raw
Минуточку 🧐 Так том ЗФС используется в качестве диска или бинарный файл (raw) ?
Art
Я хз, как его отдаёт прокс при настройке zfs thin (
Как том, значит тут всё как надо сделано) А оператива с ECC?
Murmuring
Вот и ответ да )
Art
Вот и ответ да )
Ага, на моей памяти тут в чате обращались с ошибками ЗФС вкупе с отсутствием ECC Вот например, похожий на твой случай: https://t.me/ru_zfs/38178
Art
Вот и ответ да )
Я бы поступил так сейчас: Создал бы в ВМ ещё один такой же по размеру диск Загрузил бы ВМ из под live-cd Акрониса Восстановил бы на новый диск бэкап После старый диск отключил бы И в случае успешной загрузки системы - удалил бы старый поломанный диск А ещё разорился бы на ECC-память) Штоб такого не повторялось)
Vladislav
ыыы
Vladislav
по write Iops явно полочка
Vladislav
Открываешь журнал тестирования железа перед эксплуатацией и сравниваешь тесты.
🆅🅺
кто-нить в курсе удаленный снэпшот можно как-то восстановить?
🆅🅺
или все труба?
central
ЕМНИП только платные утилиты (какие не подскажу) умеют работать с востановлением данных с zfs
George
кто-нить в курсе удаленный снэпшот можно как-то восстановить?
Штатно - нет, только если после этого сразу пул экспортировали, тогда, можно импортнуться на несколько txg назад
🆅🅺
Ага, понятно
🆅🅺
Я уже расчехлил бэкапы)
Александр
Кто-нибудь использовал metadata special devices? Насколько они ускоряют работу? Что будет, если я неправильно оценю объем и они переполнятся? Можно ли потом от них отказаться?
George
Кто-нибудь использовал metadata special devices? Насколько они ускоряют работу? Что будет, если я неправильно оценю объем и они переполнятся? Можно ли потом от них отказаться?
если переполнятся - запись пойдёт на обычные vdevs со всеми вытекающими. Если в пуле только мирроры, то по идее сработает zpool remove (но стоит перепроверить). На пуле с raidz сейчас отказаться не получится никак, zpool remove для них только в планах
George
т.е. это обычный vdev, только с определёнными приоритетами на запись
Александр
Понял. Пошевелю.
Dima
всем привет, столкнулся на одном пуле с высокой степенью фрагментации, причем большая часть пула свободна, не понимаю как так произошло и что с этим делать. Може у кого-то есть мысли NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT lxd 4.88T 1.08T 3.79T - - 74% 22% 1.00x ONLINE -
Δαρθ
подскажите как отцепить 1 исправный диск от raidz2 (чтоб перевелся в degraded режим) и чтоб при последующих импортах оно на отцепленный диск не лезло? желательно физически этот диск не отключая
Δαρθ
zpool offline
ага. и больше оно на этот диск не полезет?
George
ага. и больше оно на этот диск не полезет?
https://openzfs.github.io/openzfs-docs/man/8/zpool-offline.8.html?highlight=offline
Александр
А что такое в выводе zdb psize, lsize и asize?
Nikolay
Внезапно :)
Владимир
Внезапно :)
где-то я его видел)
George
Внезапно :)
Превед:)
George
если не поставить нужный флаг - будет разжимать
Александр
если не поставить нужный флаг - будет разжимать
А какой там флаг нужен, чтобы передавалось как есть?
George
если не поставить нужный флаг - будет разжимать
только стоит обновиться до последних версий, с -L флагом были баги, из последнего https://github.com/openzfs/zfs/issues/12762
George
и проверить целостность после первой передачи
George
А какой там флаг нужен, чтобы передавалось как есть?
про сжатие -c https://openzfs.github.io/openzfs-docs/man/8/zfs-send.8.html#c
George
обычно ещё -L юзают, по доке стоит смотреть
Александр
короче говоря, -w и не крутите себе мозги
George
вот ещё в частном случае corruption https://github.com/openzfs/zfs/issues/10342
George
в общем если не как есть zfs send делаете, да ещё на старой версии - стоит проверить целостность после получения
George
короче говоря, -w и не крутите себе мозги
в целом, да For unencrypted datasets, this flag will be equivalent to -Lec
Ivan
сложнааа )
George
эта бага только в мастере, судя по логу
вру, в 2.* тоже может стрелять скорее всего
Combot
beautiful has been banned! Reason: CAS ban.
Okhsunrog
зависает система, полностью нет отклика. ни по ssh, ни с клавиатуры
Okhsunrog
версия zfs 2.1.3-1
Okhsunrog
5.17.0-1-aarch64-ARCH
Okhsunrog
какие есть варианты?
George
5.17.0-1-aarch64-ARCH
5.17 не поддерживается ещё
Okhsunrog
откатиться на предыдущее ядро и пересобрать dkms ?
George
версия zfs 2.1.3-1
точнее в 2.1.4 поддержка приехала
George
ну и для 5.16 там же фикс был
George
в общем либо откатиться до 5.15 и ниже, либо 2.1.4