Станислав
А можно создать датасет и хранить там zvol) датасет это скорее для понимания как "папка" если просто сказать. Но в реальности конечно это совсем не так
"Папка", исторически, графическое 📂 обозначение. Так что вы просто другими словами сказали тоже самое
Nick
Наблюдаю странно большой SUnreclaim (grep SU /proc/meminfo) zfs, каталог на 5 миллионов файлов - например сессии пхп, ls -1 | wc -l приводит к SUnreclaim на ~20 гигабайт. ядро последнее 5.15, с zfs 2.1.9 чуть получше, чем с 2.1.5. Если засунуть тест в lxd и рестартовать потом целиком контейнер - SUnreclaim откатывается до 2-4 гигабайт. Если не использовать zfs, то SUnreclaim с той же нагрузкой не превышает примерно 1% от количества памяти. в иссьюсах нашел только https://github.com/openzfs/zfs/issues/3679 Что можно с этим сделать?
Nick
Ну и если их класть в разные каталоги ситуация не меняется
Konstantin
Добрый день. Никто случайно не пробовал что это за штука? Linux container support (#14070, #14097, #12263) из https://github.com/openzfs/zfs/releases/tag/zfs-2.2.0-rc1 Я правильно понимаю, что управление zfs/zpool будет доступно из lxc/lxd контейнера?
Nick
> Я правильно понимаю, что управление zfs/zpool будет доступно из lxc/lxd контейнера? Да. Но надо подождать следущих версий LXD Но там рядом есть иссью про как играться недожидаясь, из минусов - миграции/бекапы не будут работать и что-то еще.
Nick
только не zpool, а текущий и дочерние рекордсеты
Nick
самое главное для чего это нужно - сделать рекордсайз 1М на корень и 16к на мускль, ну и со сжатием для разных каталогов поиграться
Станислав
самое главное для чего это нужно - сделать рекордсайз 1М на корень и 16к на мускль, ну и со сжатием для разных каталогов поиграться
Я для этого сам создал датасет и примаунтил его в lxd ( lxc config device add... ), в итоге удобно реплицировать к тому же, не только рекордсайзы менять и сжатие. Но очень интересно. Может много головняка с правами доступа решит это обновление, так как ремапить большое количество файлов для копии контейнера занимает иногда много времени
Nick
все равно пока много ручной работы и надо ждать :(
Shaker
Ну и если их класть в разные каталоги ситуация не меняется
У нас та-же история в zfs, уже смирились. Не нашли как решать, просто перестали делать там ls -1 ;)
Nick
мб /proc/slabinfo что подсветит интересное?
пока ничего не подсвечивает. На что именно там посмотреть?
Nick
я slabtop смотрел, ничего принципиально не поменялось, просто по счётчикам чего-то чуть меньше становится с перходом на 2.1.9
Nick
реально ситуацию улучшает перестать делать ls кучи файлов (суть, вероятно, stat, потому что для пхп это отключение gc сессий)
Nick
но это такое себе решение в долгосрочной перспективе
George
я slabtop смотрел, ничего принципиально не поменялось, просто по счётчикам чего-то чуть меньше становится с перходом на 2.1.9
я скорее предлагал посмотреть какой slab растёт при ls, а не разницу между версиями
Arseniy
Есть dataset1, который использовался как файловое хранилище. Затем он был отключен, последний его снапшот был развернут в dataset1-auto-date и уже он стал использоваться в качестве хранилища. В настоящий момент, dataset1 = 600GiB dataset1-auto-date=10GiB Вполне понятно, что развернутый из снапшота весит мало, т.к. его размер обуславливает новые и измененные файлы, относительно dataset1. Внимание вопрос: если я делаю копирование директорий с файлами из dataset1-auto-date в абсолютно новый датасет, а затем удаляю dataset1, директории и файлы останутся? Он же по идее при копировании из развернутого снапшота будет обращаться к dataset1, с которого снап был снят, верно?
Arseniy
Верно. Зачем копировать в новый датасет файлы? Можно zfs send/recv использовать
Мне надо не весь датасет, а только 6 директорий из 15
Fedor
Выдели в отдельный датасет
Сергей
Возник нубский вопрос на тему датасетов: при перемещении файлов между датасетами файлы физически "перемещаются", а не просто редактируются метаданные, вроде логично, но так происходит даже если датасеты имеют одинаковые свойства унаследованные от корневого датасета - так всё равно должно быть? Без физического "перемещения" невозможно? p.s. кавычки потому-что понимаю что там копирование происходит.
vanes™
Господа, а расширение д-рейда ещё не запилили?
Vladislav
Господа, а расширение д-рейда ещё не запилили?
Расширение какого угодно рейда кроме 0-ого не запилили
Shaker
Я думаю там нужно сначала дефрагментацию и ребалансировку запилить ))
Vladislav
Я думаю там нужно сначала дефрагментацию и ребалансировку запилить ))
Ребалансировка это в целом должна быть часть любого расширения, но нет, её не будет Вру будет https://openzfs.org/w/images/6/68/RAIDZ_Expansion_v2.pdf
The
Добрый день, чат. Подскажите, как в 2023 дела с unsuspending a pool? Всё так же ребутать ОС?
The
Ситуация, условно, такова, что из-за бага контроллера "моргнул" LUN, и zfs из-за IO errors перевёл его в suspended. При этом сам LUN продолжает работать.
The
https://superuser.com/questions/685882/zpool-pool-i-o-is-currently-suspended
Спасибо. Уже пробовал. Но всё тщетно.
The
pr всё висит) https://github.com/openzfs/zfs/pull/11082
3 года, норм. "Бумажка должна отлежаться!"
Vladislav
3 года, норм. "Бумажка должна отлежаться!"
Одно дело зарелизить функцию, другое дело поддерживать её в рабочем состоянии
Николай Орлов
всем привет нужна помощь, не могу стартануть proxmox при загрузке вываливается в initramfs пишет, что не может импортировать rpool при том что все диски online. Статус the pool metadata is corrupted
Николай Орлов
central
На импорт что говорит ?
Николай Орлов
То же самое что и на фото
Николай Орлов
Николай Орлов
Так а словами?))
Ivan
отвалился диск с кэшем ?
Николай Орлов
Ivan
Да вроде нет
а чего он не онлайн ?
Николай Орлов
А вот хз
Николай Орлов
Другой пул в онлайне
Николай Орлов
С кешем
Николай Орлов
Олег
у вас же 1й рейд был? попробуйте загрузиться с другого диска
Олег
лучше один вытащить
Олег
ну из этих 2х
Николай Орлов
Пробовал, не хочет типа нет загрузчика видимо на втором
Олег
proxmox 6й?
Николай Орлов
proxmox 6й?
Последний вроде
Олег
На 6м такую хрень ловил
Олег
на 7м поправили
Николай Орлов
Сейчас скажу какой
Ivan
https://unix.stackexchange.com/questions/706105/zfs-pool-metadata-corrupt
Николай Орлов
В загрузчике же должен писать
Николай Орлов
Зараза толко ядро пишет какое
Олег
какое?
Николай Орлов
5.15.107-2
Олег
7.4-1 вроде
Олег
smartctl чекните дисков
Олег
у вас же еще logs
Николай Орлов
smartctl чекните дисков
С лайвсд грузиться?
Олег
там откуда вызвать сможете комманду
Олег
важные данные на пуле есть?
Николай Орлов
Нет
Николай Орлов
Там только система была
Николай Орлов
И соотвественно конфиги виртуалок
Николай Орлов
Сами виртуалки на других дисках
Олег
а зачем logs и кеши для системки?