Sergey
Железный в такой же конфигурации даст результат чуть хуже.
да не особо хуже давал, но не отнимал кучу памяти, скорость чтения-записи стабильна. и т.д. Диски то тоже не плохие, самые медленные это Тошки al14seb120n
Sergey
Ashift и другие аспекты так же надо учитывать при настройке аппаратного массива. Только там они называются по другому.
с железными я знаком по работе, с зфс решил попробовать, но чтото для продакшена не очень. Уж лучше тестовый стенд какой сделать и разобраться
riv
с железными я знаком по работе, с зфс решил попробовать, но чтото для продакшена не очень. Уж лучше тестовый стенд какой сделать и разобраться
Мне просто интресно для сравнения. Я предполагаю, что если слелать volblocksize=64к..256k или другое число как страйп в аппаратном рейде, то и результат будет таким же.
riv
r5, страйп 128
Попробуйте ради интереса пересоздать том виртуальной машины с volblocksize=128k и скопировать туда данные. Могу подсказать команды.
riv
r5, страйп 128
При использовании аппаратного рейд, как вы делите логический том между виртуальными машинами? LVM?
Sergey
Попробуйте ради интереса пересоздать том виртуальной машины с volblocksize=128k и скопировать туда данные. Могу подсказать команды.
команды не помешают, но уже диск полетел на бэкап. Потом в железный сделаю. Команды пригодятся для тестового стенда.
DOK ꧁꧂
Zfs знает про ssd диски?
Sergey
это в вм так или прямо на хосте ?
ВМ, на основе дебиан omw.
Ivan
ВМ, на основе дебиан omw.
сделай volblocksize 64 например и конечно же cache=none.
Δαρθ
ура 216 зарелизили )
Animal
а там есть что интересное для домашнего soho?
Vladislav
а там есть что интересное для домашнего soho?
Это https://github.com/openzfs/zfs/releases/tag/zfs-2.1.6
Δαρθ
а там есть что интересное для домашнего soho?
снапшоты + перелив их (инкрементальные бекапы на удаленную систему) защита данных чексуммой/хешем что для зеркал или рейдов позволяет опозновать и исправлять порчу данных диском скорость работы виртуалок на вирт дисках zfs
Sergey
Новая версия Live CD с ZFS-2.1.6 и ядром 5.19.3 https://git.s-morozov.net/sergey/archlive-zfs/releases/tag/2022.10.04
Art
@gmelikov @neurox Колеги, а есть возможность спрятать эти сообщения с капчами и банами?
Georg🎞️🎥
Хватит уже голосовать, не спрашивая владельцев :)
Ivan
Хватит уже голосовать, не спрашивая владельцев :)
если много проголосует, то мб владелец попробует что-то сделать.
Georg🎞️🎥
Это была ирония на злобу дня )
Art
это надо чтоб бот умел за собой прибирать
Он убирает вроде, но всё равно его сообщения отвлекают. Думаешь тут что-то происходит, а это битва ботов очередная)
Shaker
Лучше битва ботов чем неприятный спам
Sergey
Всем привет! Подскажите пожалуйста как правильно експортировать ZFS-пул в другой каталог, например в /mnt ?
Sergey
Ведь просто при импорте оно его в корень монтирует
Fedor
При импорте вроде как можно дополнительно маунтпоинт указывать, надо смотреть документацию по команде импорта
Sergey
разобрался
Sergey
сделал простой импорт а затем изменил точку монтирования zfs set mountpoint=/mnt poolname
Sergey
Profit )
Fedor
ну киллерантифича твоего варианта для меня является то что если так собрать пул, удалить vdev из пула ты не сможешь))
возможно ли удалить indirect устройства после удаления mirror из пула? я так понимаю это часть фичи obsolete_counts
DOK ꧁꧂
zfs както можно поднастроить под ssd?
Vladislav
zfs както можно поднастроить под ssd?
скорее да. правильно определить блок-сайз SSD
Mikhail
Всем добра. Сегодня обнаружил интересный кейс - невозможно удалить snapshot. Пишет что dataset is busy. Проверил что mount-ов нет, никто не отнаследован и прочие. Поковырял отвёрткой (truss, dtrace). Находка - ZFS используется LUA внутри ядра. Скажу честно, неожидано. Proof: https://github.com/openzfs/zfs/commit/d99a015343425a1c856c900aa8223016400ac2dc Детали гуглятся просто: https://klarasystems.com/articles/understanding-zfs-channel-programs/ Век живи - век учись
Shaker
Пока не закончилось...
А что было причиной ? Какая версия zfs?
Mikhail
покажи zfs holds неудаляемого снапа
# zfs holds zroot/build/buildpool/jails/buildos/data/obj@zrepl_buildos_20220601_085524_000 NAME TAG TIMESTAMP zroot/build/buildpool/jails/buildos/data/obj@zrepl_buildos_20220601_085524_000 zrepl_last_received_J_apull_base Wed Jun 1 12:01 2022
Ivan
было бы приятно, если б zfs сообщал сразу почему не хочет что-то делать )
Mikhail
было бы приятно, если б zfs сообщал сразу почему не хочет что-то делать )
именно. а то прям EBUSY-я/EEXIST-ами всё забросано: https://github.com/openzfs/zfs/blob/17e212652db34d2942d6aa42ba14b443bcd73bea/module/zfs/dsl_destroy.c#L55
Mikhail
О!
Mikhail
было бы приятно, если б zfs сообщал сразу почему не хочет что-то делать )
по идеи на линукс сработает: echo 512 >/sys/module/zfs/parameters/zfs_flags и он ошибки будет писать в kstat.zfs.misc.dbgmsg
Combot
谷佳琦 has been banned! Reason: CAS ban.
Vladislav
Явный бот
Вадим «Дым» Илларионов ☭
Явный бот
Определённо.
Oleg
Всем привет, столкнулся со следующей проблемой, после пересоздания raidz упала скорость (ранее скорость была при записи по сети примерно 1гб/с, стало примерно 300-400 мб/с). Подскажите куда смотреть, в чем может быть причина? Детали: изначально был рейд z1 из 3 одинаковых дисков, пересобрал (через форматирование) в z2 из 8 дисков (к 3 существующим добавил еще 5 таких же дисков), диски новые, cmr. Процессор загружен при записи 5-9%, памяти свободно 9ГБ из 12ГБ. Все диски сидят на одном контроллере.
Oleg
Операционная система xigmanas (freebsd 12)
Oleg
Дедупликации нет, все настройки по умолчанию, ничего не правил
Oleg
В рейде из трех дисков аналогично
Anton
Объем дисков не 20 Тб?)
Oleg
По 2тб кажлый
Oleg
Суммарно 16
Oleg
Это сырой объем
Anton
Это понятно
Oleg
Объем дисков не 20 Тб?)
Это какоето критическое значение?
Anton
Сжатие какое? Применялись ли датасеты?
Maksim
Это какоето критическое значение?
больше объем - больше оперативки надо под метадату и прочее, и меньше остаётся под кэш?
Anton
Это какоето критическое значение?
Нет, просто надо было поднять временную хранилку. Были диски на 20 Тб, 6 штук. При аналогичной конфигурации зфс, но с дисками на 8 Тб проблем в скорости работы не было
Anton
А с дисками на 20 Тб появились проблемы, но разбираться особо не стали и перевели на mdadm+lvm
Oleg
Сжатие какое? Применялись ли датасеты?
Датасетов нет, сжатие не настраивал
Anton
Датасетов нет, сжатие не настраивал
Надо поиграться с ashift, но тут я не подскажу. Тут наверняка есть гуру
Oleg
А с дисками на 20 Тб появились проблемы, но разбираться особо не стали и перевели на mdadm+lvm
20тб это конечно круто но ини стоят прилично да и у меня потребности такой нет в месте для хранения.
Anton
20тб это конечно круто но ини стоят прилично да и у меня потребности такой нет в месте для хранения.
Ну два диска по 20 Тб наверняка дешевле выйдут нежели 8 по 2 Тб. При том, что уровень избыточности выше