Fedor
По поводу конфликтов надо смотреть точки пересечений уже
Fedor
И смотреть текущую реализацию нфс от зфс в конкретной системе
Rodion
Fedor
Rodion
Fedor
может снапшоты
Fedor
может просто в /datapool но скрыт
Fedor
zfs list -t snapshot
Fedor
Fedor
что файлы что папки
Fedor
видны в ls -la но не иавдны в просто ls например
Fedor
Rodion
может он не подключен
В смысле не подключен? Т.е. MOUNTPOINT в zfs list это не то место куда файлы складываются?
Aba
Что это вы тут такое рассказываете?))) В zfs на bsd/linux заработал механизм zfs share? Помнится ранее это была лишь прерогатива соляры...
Fedor
прям охота теперь проверить, неужели не занесли
у меня зфс на солярках все.)
Fedor
https://openzfs.github.io/openzfs-docs/man/8/zfs-share.8.html
Fedor
Похоже, что там интеграция с самбой и нфс сервером таки имеется
Fedor
Но их надо поставить
Δαρθ
Rodion
точно не в /datapool/fs1
сделал zfs destroy datapool/fs1, теперь zfs list говорит, что у меня только есть только datapool, но в нём я вижу каталог fs1 и в нём все файлы, что пытался в шару по nfs писать (!!!) Сюрр :)
Δαρθ
Denis
Rodion
в шаре было crossmnt в опциях?
zfs create -m /opt/datapool /dev/sdb
zfs create datapool/fs1
в /etc/exports - /opt/datapool 192.168.25.0/24(rw,no_root_squash)
на клиенте был смонтирован /opt/datapool/fs1 в /mnt и в /mnt писАл файлы.
Denis
Art
Denis
колеги подскажите, сделал detach сбойного диска в draid теперь немогу понять как обратно то вернуть? attach не хочет
Denis
он вставил хотспаре реплейсом хотспаре тоже не хочет
Denis
через hotspare кажись получилось :)
George
Denis
кабель пока не заменил были ошибки на write заменил на CKSUM стали валится
Denis
просто я так понимаю аттач отработал бы если бы я условно расширял пул например у меня 7 дисков draid1 добавил в бы в пул еще 7 draid1, но тогда не понял как правильно вернуть диск обратно
George
George
attach detach это про мирроры
Denis
Denis
я по привычке делал у меня везде зеркала :)
Denis
а тут решил по эксперементировать
George
вот это интересно
Denis
но пока через spare я его загнал щас заребилдится попробую очистить
Denis
Denis
в итоге пока сделал так:
zpool add data spare /dev/disk/by-id/ata-ST8000VX004-2M1101_WSD8TECV
zpool replace data draid1-0-0 ata-ST8000VX004-2M1101_WSD8TECV
щас ребил идет по идее когда закончит нада будет:
zpool detach data draid1-0-0 чтоб вернуть его в AVAIL
и дальше на статус спаре смотреть
Δαρθ
Rodion
Пути решения:
1) Экспортировать через через /etc/exports/ каждую файлосистему отдельно. То есть должно быть:
/opt/datapool/fs1 192.168.25.0/24(rw,no_root_squash)
2) Использовать в /etc/exports/ опцию crossmnt, как коллеги подсказывают
Наверное должно бытьь так:
/opt/datapool 192.168.25.0/24(rw,crossmnt,no_root_squash)
Но у меня не взлетело!
3) Экспортировать через zfs sharenfs
То есть просто выполняешь команду:
zfs set sharenfs='rw=192.168.25.0/24' datapool
И вот так, по способу 3 всё будет красивое) Все создаваемые в зфс файлосистемы будут появляться на сторон клиента в /mnt/, или куда смонтируешь
просто огромный РЕСПЕКТ !! Эх, у нас есть аналог byMecoffie, типа ДваПиваЭтомуГосподину? :)
п. 2 у меня тоже не взлетел.
пока ограничился п.1, но раз п.3 по феншую - перейду на него, всё равно хранилка пока только запускается.. :)
Denis
Denis
как только сделал zpool detach data draid1-0-0 пул вернулся в исходное состояние
Denis
NAME STATE READ WRITE CKSUM
data ONLINE 0 0 0
draid1:5d:7c:1s-0 ONLINE 0 0 0
ata-TOSHIBA_HDWT380_79M0A036FB0G ONLINE 0 0 0
ata-ST8000VN004-3CP101_WP00FWYZ ONLINE 0 0 0
ata-WDC_WD80EFBX-68AZZN0_VR325RWK ONLINE 0 0 0
ata-ST8000VN004-3CP101_WRQ01VXL ONLINE 0 0 0
ata-WDC_WD80EFBX-68AZZN0_VR329P3K ONLINE 0 0 0
ata-ST8000VX004-2M1101_WSD8TG6C ONLINE 0 0 0
spare-6 ONLINE 0 0 0
draid1-0-0 ONLINE 0 0 0
ata-ST8000VX004-2M1101_WSD8TECV ONLINE 0 0 0
spares
draid1-0-0 INUSE currently in use
ata-ST8000VX004-2M1101_WSD8TECV INUSE currently in use
zpool detach data draid1-0-0
data ONLINE 0 0 0
draid1:5d:7c:1s-0 ONLINE 0 0 0
ata-TOSHIBA_HDWT380_79M0A036FB0G ONLINE 0 0 0
ata-ST8000VN004-3CP101_WP00FWYZ ONLINE 0 0 0
ata-WDC_WD80EFBX-68AZZN0_VR325RWK ONLINE 0 0 0
ata-ST8000VN004-3CP101_WRQ01VXL ONLINE 0 0 0
ata-WDC_WD80EFBX-68AZZN0_VR329P3K ONLINE 0 0 0
ata-ST8000VX004-2M1101_WSD8TG6C ONLINE 0 0 0
ata-ST8000VX004-2M1101_WSD8TECV ONLINE 0 0 0
spares
draid1-0-0 AVAIL
вдруг кому пригодится :)
Вадим «Дым» Илларионов ☭
Всем привет.
Подскажите, пожалуйста, есть ли какие нюансы при установке (споткнулся на проксмоксе, до выбора ФС даже не дошло ещё) на рейд-контроллер в режиме НВА?
Адаптек-7805:
- накопители разинитил,
- перевёл контроллер в НВА.
Результат при попытке установки — дисков не обнаружено...
Δαρθ
Δαρθ
192.168.3.0/24(ro,insecure,all_squash,anonuid=65534,anongid=65534,async,subtree_check,crossmnt) вот с такими опциями (anongid/uid к делу точно не относятся) оно как-то само и маунтит под-датасеты
Rodion
NFS ставил так: dnf install -y https://zfsonlinux.org/epel/zfs-release-2-2.el9.noarch.rpm
Rodion
Fedor
не подскажете, если в одном из vdev’ов заменить диски на большего размера, размер vdev’а увеличится?
Fedor
Fedor
сделал scrub и нашлись несколько битых файлов от 2 до 100Гб
им совсем всё?
Fedor
George
Zfs send ещё умеет в режим, когда не падает на битых блоках, а заменяет их спец строкой аля deadbeef, можно тоже глянуть, как более ленивый вариант
Fedor
не самый лучший всё же
Alexander
slog должен быть защищен? т.е. можно ли в качестве slog Добавлять один диск или же нужен вариант зеркало или raidz?
Maksim
зависит от ценности данных. насколько я понимаю, если slog-девайс помрёт, вы потеряете данные за последние несколько секунд, но не весь массив
Alexander
правильно понимаю, что потеря возможна только по событиям непланового завершения работы?
т.е. потеря питания или крах системы
George
George
если он умрёт на живой системе, то данные в буфере в ОЗУ есть и будут успешно записаны
George
т.е. да, если данные важны - надо резервировать
Alexander
понял, спасибо. т.е. получается на не продакшн системе (домашний нас) использование slog без избыточности вполне вариант
George