Vladislav
И никто не думает про вим, интересно
Vladislav
еще есть Urbackup - он хоть использует zfs снимки и не мучает систему обходом
Vladislav
Vladislav
Vladislav
Veeam - ффтопку
Ну не скажи, он точно удобнее чем commvault для малых/средних инфраструктур
Shaker
@ialebedev ты в r/w-то стабильный смог примонтироваться ? Чем дело закончилось ?
Ivan
Ivan
Там порядка 20 Тб
Ivan
Так то в режиме ro визуально все норм. Файлы целые
Станислав
Ivan
scrub?
Ну собственно я и спрашивал. Scrub или что-то ещё.
Vladislav
Ivan
Я поскольку не сильно ещё опытен в ZFS поэтому, и задаю возможно иногда глупые вопросы))
Ivan
Vladislav
Scrub по любому
Vladislav
Я уже практикую снимки делать на разную временную глубину, чтоб диффы снапшотов смотреть
Ivan
Вопрос немного не по теме ZFS, но может кто знает. Есть NFS шары, которые клиенты монтируют как hard, через соответствующий systemd маунт сервис.
Если по каким-то причинам шара уходит в офлайн, то все программы что обращались к шаре фризятся, до момента восстановления шары. А можно как-то заставить сервис останавливаться, если шара какое время недоступна?
Я не единожды пытался это реализовать, но пока так и не получилось. Ман по этому делу перечитал несколько раз, пробовал и LazyUnmount и ForceUnmount включать в сервисе. Но успеха не добился.
В идеале мне нужно, чтобы в случае отваливания шары, чтобы на машине клиента она отмонтровалась, чтобы фриз програм ушел, а когда шара вернётся, она автоматически снова подцеплялась.
Fedor
Предлагаю почитать про состояние процесса d-state. При таком способе, насколько помню, при отвале возможен только он.
Можно попробовать поиграть с логикой сервиса в условиях более мягкого монтирования.
Roman
Вопрос немного не по теме ZFS, но может кто знает. Есть NFS шары, которые клиенты монтируют как hard, через соответствующий systemd маунт сервис.
Если по каким-то причинам шара уходит в офлайн, то все программы что обращались к шаре фризятся, до момента восстановления шары. А можно как-то заставить сервис останавливаться, если шара какое время недоступна?
Я не единожды пытался это реализовать, но пока так и не получилось. Ман по этому делу перечитал несколько раз, пробовал и LazyUnmount и ForceUnmount включать в сервисе. Но успеха не добился.
В идеале мне нужно, чтобы в случае отваливания шары, чтобы на машине клиента она отмонтровалась, чтобы фриз програм ушел, а когда шара вернётся, она автоматически снова подцеплялась.
что насчёт soft?
Ivan
что насчёт soft?
Честно сказать принципиально разницы не заметил в тестах с soft и hard. Терминал отваливался в итоге и возвращался к жизни. А например dolphin нет. В случае hard, фризились оба и без намека на анфриз
Ivan
что насчёт soft?
Но вообще конечно хотелось бы в hard режиме решить проблему
Roman
Ivan
Roman
systemd automount.
Roman
А вообще
https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/5/html/deployment_guide/s1-nfs-client-config-options
Ivan
Vladislav
я так понял, при смене recordsize на пуле с данными дефрагментатора не предусмотрено?
придется повторно переливать ?
P.S. этот пул не загрузочный
Fedor
Новый рекордсайз будут использовать только новые данные. Старые данные будут читаться со старым рекордсайзом.
Дефрагментации в зфс нет за бессмысленностью.
Vladislav
Fedor
Его нет :)
Как вариант - заново занести данные, они лягут с новым рекордсайзом, но дефрагментации не будет. Может, будет мнимая дефрагментация, но рандомное чтение так и так сохранится по ряду причин. При записи на пул во время эксплуатации любой мнимый эффект от дефрагментации будет утерян.
Vladislav
Vladislav
у меня сейчас так с идентичными данными
# zpool list tank2
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
tank2 5,44T 810G 4,65T - - 31% 14% 1.23x ONLINE -
# zpool list tank3
NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
tank3 2,72T 775G 1,96T - - 9% 27% 1.09x ONLINE -
Vladislav
Проблемы дефрагментации начинаются от 90-95%
Vladislav
До этого момента их условно нет
Ivan
Други, можете подсказать, как реимпортнуть пул в режиме rw, если он щас заимпорчен как ro?
Ivan
Бэкап завершился. Щас буду пробовать возвращать пул в рабочий режим
Ivan
В общем перегрузил систему, после чего попробовал импортнуть пул в обычном режиме. Возникла та же ошибка что и при прошлых презагрузках
Fedor
да
Fedor
заблеклисть модуль
Fedor
потом подгрузи вручную
Fedor
сделай рекавери режим
Fedor
и потом импорт
Fedor
если у тебя линукс
Fedor
в логах будет периодически подобное
WARNING: zfs: adding existent segment to range tree (offset=a18422c6000 size=4a000)
Ivan
Fedor
Fedor
чтобы при загрузке системы не было ошибки
он же сразу пробует импортнуть
и система не загрузится
Ivan
Не щас система грузится нормально, т.е. я zpool.cache перенес
Ivan
и он не видит пул при загрузке
Ivan
Далее я делаю zfs import zdata
Ivan
и вылезает эта ошибка
Ivan
раньше она же вылезала при загрузке, при попытке импорта пула
Ivan
пока я zpool.cache не перенес в другое место
Fedor
у меня оно просто в логах проскакивает
плюс я не запускаю режимы, которые вызывают core
в остальном работает как работало в rw
Fedor
импортируется нормально, без ошибок
Ivan
Попробовал откатить версию zfs не помогло
Ivan
Ivan
Как в итоге вы запускаете пул?
Fedor
у меня есть виртуалки с федорой и разные контейнеры
без них
Fedor
тк это вызывает паник
Fedor
zpool import
Ivan
У меня нет виртуалок. У меня есть физический сервер
Fedor
а рекавери перед импортом?
Ivan
Пока есть проблема. Поскольку я для теста попробовал откатиться на предыдущую версию zfs, но импортнуть не получилось т.к. не было нужных фич. Я вернулся обратно на последнюю версию
Ivan
Но он щас пишет, что тоже фичи какой-то нет ) Вот зараза
Ivan
В режиме readonly импортится без проблем
Ivan
Кстати, вопрос, а в режиме readonly scrub запускать можно?
Ivan
или это бессмысленно?
Nikita
@ialebedev Я может пропустил что-то. Если у вас не стоит цель во что бы то ни стало запустить имеющийся пул и разобраться, в чем дело, то раз уже есть бэкап - может стоит создать новый пул и развернуть туда все фс из бэкапа? Разумеется, сначала стоит это без затирания исходного пула попробовать. Может, какую то часть.
Ivan
Ну бэкап сделан через rsync, а не replicate
Ivan
Поэтому тут только пересобрать пул
Ivan
Вероятно завтра этим и займусь)
Nikita
Ну бэкап сделан через rsync, а не replicate
а повторить при помощи zfs send/recv в другое место? я zxfer пользуюсь, там вся процедура в две команды. но, насколько я помню под linux там надо какие-то пути в скрипте менять. а 20тб потоком относительно быстро должны перелиться, хотя всё от скорости интерфейсов зависит.
Vladislav
Ivan
Други, а подскажите какое-нибудь решение как это лучше реализовать. Есть сервер с nfs шарой, на ней хранятся файлы рабочие для общего доступа и некоторые конфигурационные файлы, которые едины для всех клиентов.
Клиенты при загрузке монтируют nfs шару и работают. А также через символические ссылки с шары клиенты получают общие файлы настроек. Например у всех клиентов .bashrc есть ни что иное как ссылка на .bashrc лежащий на nfs шаре и мне очень удобно вносить в него правки и они сразу появляются у всех пользователей.
Вопрос. А есть ли какое-то решение, при котором можно реализовать то же самое, но без символических ссылок. Т.к. например тот же общий bashrc, который я смогу править и автоматом он будет обновляться у всех клиентов. Но при этом каждый bashrc клиента был ты не ссылкой на общий, а физически отдельным файлом.
Собственно зачем мне это нужно? А нужно мне это за тем, что если по каким-либо причинам nfs шара отключена, клиенты не теряли общие настройки, общие глобальные переменные и т.п. потому что сейчас например, если nfs шара отключена, то у всех клиентов bashrc фактически становится пустой.
Ivan
Т.е. если коротко, я хочу реализовать такое решение, при котором я мог бы править конфигурационные файлы в одном месте, и это распространялось бы на все физические клиентские машины