Ivan
https://openzfs.github.io/openzfs-docs/Getting%20Started/Debian/Debian%20Bullseye%20Root%20on%20ZFS.html
Sergey
В любом случае должен быть FAT32 раздел, чтобы UEFI мог загрузить загрузчик или ядро.
Sergey
UEFI всегда и везде имеет FAT32 раздел
Именно. О чём я и написал.
The
я zxfer использую уже лет 8, тоже неплох)
Спасибо, будем посмотреть.
Maverick
Коллеги подскажите а какой лучше массив zfs сделать приоритет на скорость для виртуалок. Совместно с проксмокс будет. Hdd 7200 4tb количество до 12, количество, ОЗУ 32gb.
The
У вас очень подходящий ник.
Ivan
raid10
Marina
Всем привет. Может кто подсказать по поводу размеров разделов zfs? Есть пул Data и я так понимаю что в нем есть еще отдельный volume с названием Data. Там три диска по 1ТБ, и судя по выводу команды zpool list - размер 2.72T (и свободно 1.27T) А команда zfs list показывает что свободно 808G. Можно как-то расширить volume чтобы было доступно все свободное место? Подскажите пожалуйста в какую сторону копать. Спасибо.
Maverick
скорость для виртуалок на 12 дисках 7200к рпм? что вы подразумеваете под скоростью?
Чем больше скорость чтения записи тем лучше. Как лучше собрать
Roman
В федора нужны костыли с фиксацией версии ядра. Ну и смотря что значит это "лучше"
Marina
вывод zpool list && zpool status && zfs list покажи
Придется скриншотом, а то там много всего. Там внутри раздела Data были потом как-то еще созданы подразделы - они как отдельные сущности показываются, но там тоже свободное место меньше чем должно быть
Marina
Меня еще немного смущает что в вебморде FreeNAS (через него были созданы все разделы) есть галочка что-то про 80% при создании волума. Это не может быть связано?
Ilya
у тебя какой-то очень старый фринас....
Vladislav
у тебя какой-то очень старый фринас....
Это если не ошибаюсь 8 или 9
Marina
по-видимому, снапшоты zfs list -r -o space Data
В фебморде фринаса в разделе снапшотов там только два видны от каких-то плагинов и там килобайты
Vladislav
11.1
Окей, не ожидал. Так или иначе рекомендую обновить до 12.0, там интерфейс поприятней И 80% это рекомендация скорее логическая, нежели физическая.
Marina
Обновите до truenas...
Стремно как-то на текущей инсталляции обновлять) Но я пробовала поставить на отдельную флешку - но не вышло, в полуживом виде установилось и половина сервисов не стартануло, хз почему. Решила остаться на старом фринасе, он хотябы работает. А трунас еще больше ресурсов хочет.
Marina
Raidz, zpool показывает сырое место, а zfs - полезное
А почему тогда на другом пуле место так не отличается? Но там mirror. или это как раз из-за особенности raid-z на трех дисках?
Ivan
бред про докер. федора поидее должна быть менее стабильна.
Marina
У тебя raidz1 т.е по факту, из 3 дисков на 1 Тб полезного места 2/3, т.е меньше 2 ТБ
Понятно, то есть это не у меня криво создался раздел, а так и задумано
Marina
Спасибо)
Ivan
apt install docker-compose docker.io и нет проблем
Roman
На убунте свежий докер ставится через docker.io В версиях после 20.04 идёт и podman
Roman
На федоре moby
Ivan
в дебиане проприетарщина ставится при подключении non-free репы. так что нет, не проприетарный. и в 11 дебиане докер актуальной версии. композ только чуть старее последней версии.
Ivan
да просто попробуй уже )
Ivan
proxmox 😃
Vladislav
Выше ссылку кидали вроде как это делать?
Vladislav
На debian/ububtu
Vladislav
Это самый простой способ
Vladislav
Проще только воткнуть флешку с truenas
Marina
Вот еще вопрос - я вытаскивала один из двух дисков (в пуле с mirror) чтобы подключить его к другому компу и проверить можно ли данные увидеть. там пришлось делать zpool import -f. А теперь после возвращения диска обратно после каждого ребута показывается unrecoverable error. Данные на месте, если сделать zpool clear то ошибка пропадает до след ребута. Есть что-то что необходимо было сделать после того как диск был вытащен и добавлен пул на другом компе? Предложенный replace ничего с данными не сделает?
Marina
мб scrub
zpool scrub команда не дала результата - scan: scrub repaired 0B in 00:00:00 with 0 errors
George
не стоит так делать, если хочется разделить миррор на 2 пула - zpool split, если хочется временно - то zpool offline и импорт с ридонли, а потом ресильвер
Marina
WAT, на запись чтоли импортировали?
после команды zpool import -f у меня все автоматом смонтировалось. Я еще там попробовала файл создать (было интересно засинхронится ли он потом после возвращения в пул). Потом отключила его через zpool export и он отмонтировался. Ну и после этого вернулся в старый комп
Marina
как обратно в пул его возвращали?
freenas сам все увидел и показал его
George
вообще это не ожидаемый кейс, я удивлён что без действий диск обратно в пул принялся, видимо спасло что состояние пула было в памяти и как основной считался первый диск. В самом простом случае есть смысл передобавить второй диск, вплоть до split и потом его attach
Marina
Ну вообще наверное ожидаемо, что фринас сам об этом заботится, как только видит диск. Мне помогло zpool detach & add - ошибки пропали, данные на месте
Ivan
не люблю рхел дистры и его производные, посему ничего толком сказать не могу.
Vladislav
Он их любит потому что RedHat
Vladislav
А не потому что понимает
nikolay
Чем больше скорость чтения записи тем лучше. Как лучше собрать
На 12 дисках в режиме sync вы получите минимальную производительность даже в raid10. Поэтому вы для начала определитесь сколько вешать в граммах, другими словами сколько у вас будет виртуалок, какая нагрузка будет на них и какие показатели производительности (скорости) вам необходимы
George
рекомендую срочно что-то с этим делать
George
свежий openzfs позволил бы remove сделать
Marina
именно add сделали? Ну тогда теперь это не миррор, а страйп)
ага) а теперь безопасно можно сделать его миррором, или пересоздать все с нуля проще?)
Marina
проще пересоздать
ну в общем да, на stackoverflow пост нашла там тоже пишут что только пересоздание)
Marina
спасибо, в следующий раз попробую погуглить про split)
Marina
рекомендую срочно что-то с этим делать
ну у меня уже обновленный freenas до TrueNAS
Marina
Если свежий zfs то remove+attach
Да уже поздно) Но учту)
Roman
Безопаснее некуда, без пересоздания
Marina
Быстро Вы
ну там из вебморды обновление прошло быстро и успешно, в отличие от моей попытки установить новый трунас на флешку - там установка шла больше часа почему-то (и неудачно)
Vladislav
Потому что флешкa usb 2.0 скорее всего была
Marina
Пересозданный пул на TrueNas уже создался с новой версией, старый пул предлагает сделать upgrade но предупреждает что из-за новых фич могут быть проблемы на старых версиях. Это значит что этот пул вообще уже никогда не подключится ни на одной из старых freenas версий?
Maverick
На 12 дисках в режиме sync вы получите минимальную производительность даже в raid10. Поэтому вы для начала определитесь сколько вешать в граммах, другими словами сколько у вас будет виртуалок, какая нагрузка будет на них и какие показатели производительности (скорости) вам необходимы
К сожалению это особо не определить так как в виртуалку будет бд и она будет переноситься со Спарк... Aix. На х86 конвентится и сколько ей тут понадобиться вопрос.... И чё померить тоже. А так хотелось бы наибольшую производительрость
nikolay
К сожалению это особо не определить так как в виртуалку будет бд и она будет переноситься со Спарк... Aix. На х86 конвентится и сколько ей тут понадобиться вопрос.... И чё померить тоже. А так хотелось бы наибольшую производительрость
даже минимальная рандомная нагрузка порядка 1000 iops введет вашу базу в ступор и время отклика будет очень большим. переносите откуда? спарк - это солярка, aix - это aix, и там и там есть утилиты для замера текущей дисковой активности.
Andrey
если Oracle - нужно будет подтюнить БД и ARC. опять же 1000 iops каких? - если по чтению - то вот например time read miss miss% dmis dm% pmis pm% mmis mm% arcsz c 11:14:43 2 0 0 0 0 0 0 0 0 23G 24G 11:14:44 1.5K 0 0 0 0 0 0 0 0 23G 24G 11:14:45 1.7K 0 0 0 0 0 0 0 0 23G 24G 11:14:46 1.4K 0 0 0 0 0 0 0 0 23G 24G 11:14:47 383 0 0 0 0 0 0 0 0 23G 24G 11:14:48 504 0 0 0 0 0 0 0 0 23G 24G 11:14:49 443 0 0 0 0 0 0 0 0 23G 24G 11:14:50 22K 4 0 4 0 0 0 0 0 23G 24G 11:14:51 32K 2 0 2 0 0 0 0 0 23G 24G 11:14:52 28K 3 0 3 0 0 0 0 0 23G 24G 11:14:53 27K 0 0 0 0 0 0 0 0 23G 24G 11:14:54 3.0K 1 0 1 0 0 0 1 0 23G 24G 11:14:55 5.3K 0 0 0 0 0 0 0 0 23G 24G