Vladislav
И никто не думает про вим, интересно
Vladislav
еще есть Urbackup - он хоть использует zfs снимки и не мучает систему обходом
Vladislav
vim ?
Не совсем))
Vladislav
Не совсем))
Veeam - ффтопку
Vladislav
Veeam - ффтопку
Ну не скажи, он точно удобнее чем commvault для малых/средних инфраструктур
Shaker
@ialebedev ты в r/w-то стабильный смог примонтироваться ? Чем дело закончилось ?
Ivan
Там порядка 20 Тб
Ivan
@ialebedev ты в r/w-то стабильный смог примонтироваться ? Чем дело закончилось ?
Кстати, спрошу наперед. Допустим, я смог откатиться на предыдущую версию zfs, и смог смонтировать на rw. Как мне проверить, действительно ли в нем не пострадала инфа и насколько пул в целости?
Ivan
Так то в режиме ro визуально все норм. Файлы целые
Ivan
scrub?
Ну собственно я и спрашивал. Scrub или что-то ещё.
Ivan
Я поскольку не сильно ещё опытен в ZFS поэтому, и задаю возможно иногда глупые вопросы))
Vladislav
Scrub по любому
Vladislav
Я уже практикую снимки делать на разную временную глубину, чтоб диффы снапшотов смотреть
Ivan
Вопрос немного не по теме ZFS, но может кто знает. Есть NFS шары, которые клиенты монтируют как hard, через соответствующий systemd маунт сервис. Если по каким-то причинам шара уходит в офлайн, то все программы что обращались к шаре фризятся, до момента восстановления шары. А можно как-то заставить сервис останавливаться, если шара какое время недоступна? Я не единожды пытался это реализовать, но пока так и не получилось. Ман по этому делу перечитал несколько раз, пробовал и LazyUnmount и ForceUnmount включать в сервисе. Но успеха не добился. В идеале мне нужно, чтобы в случае отваливания шары, чтобы на машине клиента она отмонтровалась, чтобы фриз програм ушел, а когда шара вернётся, она автоматически снова подцеплялась.
Fedor
Предлагаю почитать про состояние процесса d-state. При таком способе, насколько помню, при отвале возможен только он. Можно попробовать поиграть с логикой сервиса в условиях более мягкого монтирования.
Ivan
что насчёт soft?
Честно сказать принципиально разницы не заметил в тестах с soft и hard. Терминал отваливался в итоге и возвращался к жизни. А например dolphin нет. В случае hard, фризились оба и без намека на анфриз
Ivan
что насчёт soft?
Но вообще конечно хотелось бы в hard режиме решить проблему
Roman
systemd automount.
Roman
А вообще https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/5/html/deployment_guide/s1-nfs-client-config-options
Vladislav
я так понял, при смене recordsize на пуле с данными дефрагментатора не предусмотрено? придется повторно переливать ? P.S. этот пул не загрузочный
Fedor
Новый рекордсайз будут использовать только новые данные. Старые данные будут читаться со старым рекордсайзом. Дефрагментации в зфс нет за бессмысленностью.
Fedor
Его нет :) Как вариант - заново занести данные, они лягут с новым рекордсайзом, но дефрагментации не будет. Может, будет мнимая дефрагментация, но рандомное чтение так и так сохранится по ряду причин. При записи на пул во время эксплуатации любой мнимый эффект от дефрагментации будет утерян.
Vladislav
у меня сейчас так с идентичными данными # zpool list tank2 NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT tank2 5,44T 810G 4,65T - - 31% 14% 1.23x ONLINE - # zpool list tank3 NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT tank3 2,72T 775G 1,96T - - 9% 27% 1.09x ONLINE -
Vladislav
Проблемы дефрагментации начинаются от 90-95%
Vladislav
До этого момента их условно нет
Ivan
Други, можете подсказать, как реимпортнуть пул в режиме rw, если он щас заимпорчен как ro?
Ivan
Бэкап завершился. Щас буду пробовать возвращать пул в рабочий режим
Ivan
В общем перегрузил систему, после чего попробовал импортнуть пул в обычном режиме. Возникла та же ошибка что и при прошлых презагрузках
Fedor
да
Fedor
заблеклисть модуль
Fedor
потом подгрузи вручную
Fedor
сделай рекавери режим
Fedor
и потом импорт
Fedor
если у тебя линукс
Fedor
в логах будет периодически подобное WARNING: zfs: adding existent segment to range tree (offset=a18422c6000 size=4a000)
Ivan
заблеклисть модуль
Какой именно?
Fedor
чтобы при загрузке системы не было ошибки он же сразу пробует импортнуть и система не загрузится
Ivan
Не щас система грузится нормально, т.е. я zpool.cache перенес
Ivan
и он не видит пул при загрузке
Ivan
Далее я делаю zfs import zdata
Ivan
и вылезает эта ошибка
Ivan
раньше она же вылезала при загрузке, при попытке импорта пула
Ivan
пока я zpool.cache не перенес в другое место
Fedor
у меня оно просто в логах проскакивает плюс я не запускаю режимы, которые вызывают core в остальном работает как работало в rw
Fedor
импортируется нормально, без ошибок
Ivan
Попробовал откатить версию zfs не помогло
Ivan
Как в итоге вы запускаете пул?
Fedor
у меня есть виртуалки с федорой и разные контейнеры без них
Fedor
тк это вызывает паник
Ivan
тк это вызывает паник
Еще раз, я запутался. Как мне импортнуть пул?
Fedor
zpool import
Ivan
У меня нет виртуалок. У меня есть физический сервер
Ivan
zpool import
Это я уже сделал. Ошибка PANIC
Fedor
а рекавери перед импортом?
Ivan
Пока есть проблема. Поскольку я для теста попробовал откатиться на предыдущую версию zfs, но импортнуть не получилось т.к. не было нужных фич. Я вернулся обратно на последнюю версию
Ivan
Но он щас пишет, что тоже фичи какой-то нет ) Вот зараза
Ivan
В режиме readonly импортится без проблем
Ivan
Кстати, вопрос, а в режиме readonly scrub запускать можно?
Ivan
или это бессмысленно?
Nikita
@ialebedev Я может пропустил что-то. Если у вас не стоит цель во что бы то ни стало запустить имеющийся пул и разобраться, в чем дело, то раз уже есть бэкап - может стоит создать новый пул и развернуть туда все фс из бэкапа? Разумеется, сначала стоит это без затирания исходного пула попробовать. Может, какую то часть.
Ivan
Ну бэкап сделан через rsync, а не replicate
Ivan
Поэтому тут только пересобрать пул
Ivan
Вероятно завтра этим и займусь)
Nikita
Ну бэкап сделан через rsync, а не replicate
а повторить при помощи zfs send/recv в другое место? я zxfer пользуюсь, там вся процедура в две команды. но, насколько я помню под linux там надо какие-то пути в скрипте менять. а 20тб потоком относительно быстро должны перелиться, хотя всё от скорости интерфейсов зависит.
Ivan
Други, а подскажите какое-нибудь решение как это лучше реализовать. Есть сервер с nfs шарой, на ней хранятся файлы рабочие для общего доступа и некоторые конфигурационные файлы, которые едины для всех клиентов. Клиенты при загрузке монтируют nfs шару и работают. А также через символические ссылки с шары клиенты получают общие файлы настроек. Например у всех клиентов .bashrc есть ни что иное как ссылка на .bashrc лежащий на nfs шаре и мне очень удобно вносить в него правки и они сразу появляются у всех пользователей. Вопрос. А есть ли какое-то решение, при котором можно реализовать то же самое, но без символических ссылок. Т.к. например тот же общий bashrc, который я смогу править и автоматом он будет обновляться у всех клиентов. Но при этом каждый bashrc клиента был ты не ссылкой на общий, а физически отдельным файлом. Собственно зачем мне это нужно? А нужно мне это за тем, что если по каким-либо причинам nfs шара отключена, клиенты не теряли общие настройки, общие глобальные переменные и т.п. потому что сейчас например, если nfs шара отключена, то у всех клиентов bashrc фактически становится пустой.
Ivan
Т.е. если коротко, я хочу реализовать такое решение, при котором я мог бы править конфигурационные файлы в одном месте, и это распространялось бы на все физические клиентские машины