Василий
Всан, при 600/250, основные диски вообще почти не работают, все в каше
Василий
И сервер можно любой уронить
Alexander
Это конечно хорошо, но проприетарщина ведь ? :(
Василий
Василий
Денег нет 😭
Василий
А так да, он дофига не бесплатный
Alexander
Но вы держитесь
Alexander
А разве Linstor не запихать в виртуалку?
Василий
Т.е. Кластер на том же железе получается
Василий
Alexander
Хотя пробросу устройств в ESXi я как-то не очень доверяю по сравнению с KVM :(
Alexander
Василий
Всан, родное, дофига быстрое решение
Alexander
По крайне мере commodity, OS, FS и т.п.
Василий
Alexander
И если DRBD, то ведь будут реплики, ну отвалилась одна ...
Василий
У меня и нтфс никогда не умирала
Василий
Кроме рейд 5
Alexander
Василий
Ну, ок. Если работать без шапочки
Δαρθ
да, только имена дисков задавай не через обычные буковки типа /dev/sda , а через айдишники, типа такого
/dev/disk/by-id/ata-TOSHIBA_MG07ACA12TE_60D0A028X85X
Так zfs пул будет вообще независим от того, как система обзовёт диски, и соотв его можно будет легко переносить между системами, авось пригодится
А ещё лучше даже так: сделай wipefs -a каждому диску. После чего, очищенные, они отобразятся в гуе Прокса, и ты сможешь создать пул там, так быстрее будет
айдишники не сами по себе берутся, их вроде initramfs делает
Δαρθ
соотвно если без нее — опять тыква :(
Alexander
да, только имена дисков задавай не через обычные буковки типа /dev/sda , а через айдишники, типа такого
/dev/disk/by-id/ata-TOSHIBA_MG07ACA12TE_60D0A028X85X
Так zfs пул будет вообще независим от того, как система обзовёт диски, и соотв его можно будет легко переносить между системами, авось пригодится
А ещё лучше даже так: сделай wipefs -a каждому диску. После чего, очищенные, они отобразятся в гуе Прокса, и ты сможешь создать пул там, так быстрее будет
А какая разница как называется устройство в Linux?
Сергей
соотвно если без нее — опять тыква :(
После первоначального создания пула на дисках запишется информация (метки) и пул можно будет импортировать по любым именам, zfs возьмёт из меток на самих дисках
Alexander
Δαρθ
Semyon 🌀
Всем утра.
Подскажите, похоже рассыпалась зеркало zfs raid10, сначала были ошибки с ada4, сейчас с ada3, пытаюсь сделать zpool -fR import /mnt zroot c mfsbsd.
подвисает на этом
Semyon 🌀
P0 P1 P3 P4 из них был рейд, P5 добавлял для замены, т.к. до этого такие же DRDY error сыпало с P4
Semyon 🌀
Dima
это не вопросы ZFS, это в https://t.me/freebsd_ru
Nikolay
#Вопрос Это законно держать два пула разных версий на одном хосте ?
Nikolay
Semyon 🌀
Хорошо, подскажите\напомните тогда ещё пожалуйста. с Live CD сейчас под MFSBSD если я добавлю новый диск в пул в зеркало, то нужно будет zpool.cache копировать в /boot/zfs/ ? подзабыл всё уже
Semyon 🌀
раньше делал что то типа такого если были проблемы с кеш файлом или настройками пула.
zpool import -f -o cachefile=/tmp/zpool.cache -o altroot=/mnt zroot или zpool import -fR /mnt zroot
mount -t devfs devfs /mnt/dev
cp /tmp/zpool.cache /mnt/boot/zfs/zpool.cache
umount /mnt/dev
Semyon 🌀
или это вроде при изменении имени пула и других свойств нужно новый zpool.cache копировать
Semyon 🌀
zpool split кто-нибудь делал?
не могу никак победить ребилд рейда, из-за disk4 сильные фризы и никак не засинкается, а вытащить его offline\detach не даёт.
root@mfsbsd:~ # zpool status -v
pool: zroot
state: ONLINE
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Tue Aug 31 17:38:14 2021
565G scanned at 200M/s, 71.3G issued at 25.2M/s, 566G total
847M resilvered, 12.61% done, 05:34:49 to go
config:
NAME STATE READ WRITE CKSUM
zroot ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
gpt/disk0 ONLINE 0 0 0
gpt/disk1 ONLINE 0 0 0
mirror-1 ONLINE 9 0 0
gpt/disk3 ONLINE 0 0 4 (resilvering)
gpt/disk4 ONLINE 365 0 342 (resilvering)
errors: No known data errors
root@mfsbsd:~ # zpool detach zroot gpt/disk4
nikolay
столкнулся со странной ситуацией. переставили диски из одного сервера в другой (правда перед этим не сделали zpool export на старом сервере и не перенесли ssd, с которых выдавались партиции под slog, не было возможноси). на новом сервере делаю zpool import -d -aN /dev/disk/by-id, пул импортируется, удаляю slog vdev, удаляю на всякий случай zpool.cache файл. перезагружаюсь - пул не импортируется
nikolay
все модули загружаются, systemctl показывает что zfs-import - loaded и active, строка в файле /lib/modules-load/zfs.conf раскомментирована
nikolay
ок, снова импортирую пул, той же командой, снова перегружаюсь (при импорте создается новый zpool.cache файл) - система залипает на этапе попытки смонтировать пул (именно смонтировать, не импортировать). приходится перегружать в сингл моде, удалять zpool.cache файл - только после этого система грузится штатно, но без импорта пула.
nikolay
centos 8.4, zol 2.0.5, может баг какой есть при импорте пула с другого сервера?
nikolay
копаюсь глубже - вижу что когда диски перенесли на новый сервер то они распознались там как mdadm устройства в виде raid0 каждый диск (соот-но партиции *1 и *9 распознались как партиции md*p1 и md*p9)
nikolay
как такое может быть? руками их вроде никто не создавал, иначе потерли бы информацию о разметке zfs. или не потерли бы?
nikolay
[root@localhost ]# zpool status -L
pool: pgsql
state: ONLINE
scan: resilvered 6.09T in 6 days 10:38:33 with 0 errors on Mon Aug 16 09:02:52 2021
config:
NAME STATE READ WRITE CKSUM
pgsql ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
md122 ONLINE 0 0 0
md114 ONLINE 0 0 0
md126 ONLINE 0 0 0
md108 ONLINE 0 0 0
md109 ONLINE 0 0 0
md120 ONLINE 0 0 0
md111 ONLINE 0 0 0
md117 ONLINE 0 0 0
md116 ONLINE 0 0 0
md113 ONLINE 0 0 0
raidz2-2 ONLINE 0 0 0
md118 ONLINE 0 0 0
md124 ONLINE 0 0 0
md115 ONLINE 0 0 0
md123 ONLINE 0 0 0
md107 ONLINE 0 0 0
md112 ONLINE 0 0 0
md125 ONLINE 0 0 0
md121 ONLINE 0 0 0
md110 ONLINE 0 0 0
md119 ONLINE 0 0 0
nikolay
на старом сервере диски пробрасывались через рейд-контроллер в режиме raid0 каждый отдельный диск.. и поверх zfs разметка
nikolay
nikolay
попробовал указать zpool set cachefile=none - не помогает, система не импортирует пул при загрузке(
nikolay
в логах вижу что вроде все норм с модулями и init скриптами
nikolay
Sep 1 10:12:24 localhost systemd-modules-load[738]: Inserted module 'zfs'
Sep 1 10:12:24 localhost kernel: ZFS: Loaded module v2.0.5-1, ZFS pool version 5000, ZFS filesystem version 5
Sep 1 10:12:29 localhost systemd[1]: Reached target ZFS pool import target.
Sep 1 10:12:29 localhost systemd[1]: Starting Mount ZFS filesystems...
Sep 1 10:12:29 localhost systemd[1]: Started Mount ZFS filesystems.
Sep 1 10:12:30 localhost systemd[1]: Started ZFS Event Daemon (zed).
Sep 1 10:12:30 localhost systemd[1]: Starting ZFS file system shares...
Sep 1 10:12:30 localhost systemd[1]: Started ZFS file system shares.
Sep 1 10:12:30 localhost systemd[1]: Reached target ZFS startup target.
Sep 1 10:12:30 localhost zed[1681]: ZFS Event Daemon 2.0.5-1 (PID 1681)
nikolay
что-то у меня общение в одного получается))
George
nikolay
nikolay
попробовал прописать в rc.local команды zpool import и zfs mount - тоже не работает..
George
George
Если так - можно просто в systemd генераторе прописать импорт пула этого
George
zpool-import чтоли
nikolay
George
George
если пул не импортируется автоматически, но всё остальное ок - просто через этот генератор завести сервис с нужным именем пула
nikolay
nikolay
забавно)
nikolay
lrwxrwxrwx. 1 root root 9 Jun 22 00:20 /usr/lib/systemd/system/zfs-import.service -> /dev/null
nikolay
поменял вот тут /usr/lib/systemd/system/zfs-import-scan.service
nikolay
ExecStart=/sbin/zpool import -d /dev/disk/by-id -aN -o cachefile=none, добавил -d /dev/disk/by-id