Алексей
нет, слишком большой объем, всё бы переполнилось
Алексей
порядка 2тб данных
Fedor
точно ли сюда данные упали?
Алексей
точно ли сюда данные упали?
им больше некуда упасть, 100% они были именно тут
Алексей
я проверил типа уберблоки (насколько я понял можно откатиться на один из предыдущих) там в списке все уберблоки с меткой времени уже после ребута
Fedor
под зфс что лежит? как диски подключены? все ли диски задействованы в пуле?
Fedor
может, клон какой-то подъехал с тем же именем
Алексей
в пуле 4 устройства, два под данные в страйпе, два под мету в зеркале
Fedor
интересный кейс
Алексей
мягко говоря у меня пукан пригорает прям ща очень знатно
Алексей
надо сказать что ребут по правде говоря был вызыван другим глюком
Алексей
но там было проще, файлы в другом датасете не показывались (якобы пусто) но сам датасет имел вес. ну я так понял что надо отмонтировать и примонтировать и всё будет ок подобные глюки ловил не раз просто решил ребутнуть поскольку это было проще
Алексей
и в другом исчезли уже жёстко
Fedor
харды сата?
Алексей
сата
Fedor
бывало, что во время первоначального сетапа данные будто сбрасывались?
Fedor
с самих хдд. разметка там, или что-то такое
Алексей
нет
Алексей
пул уже несколько лет работает
Fedor
бекапов, конечно же, нет?
Алексей
да ну вот как раз есть
Алексей
недельной давности
Fedor
то, что могу предположить проверить - экспериментальная история
Алексей
тут как бы тот случай когда они и не нужны
Fedor
как харды подключены?
Алексей
на hba lsi
Fedor
другие датасеты ок на этом наборе хардов, на которых жил этот датасет?
Алексей
да неделю назад было создано 4 датасета (в один момент) и два последних после ребута обунлились
Fedor
ошибки встречал на хардах в зфс?
Алексей
нет, дмесг чистый, зпул статус тоже ок
Алексей
ничто не предвещало беду
Fedor
не, я про мониторинг статистики зфс
Fedor
в прошлом
Алексей
наудивление стабильный был хост
Fedor
довольно странно выглядит история
Алексей
да, мягко говоря
Алексей
немного бы пораньше заметить конечно
Алексей
неуспел буквально минут на 10 бы раньше
Алексей
тогда можно было бы попробовать откатиться
Алексей
но с другой стороны я и не ждал такого
Fedor
если получится раскопать, напиши, плз. может, ребята тут ещё подскажут, как найти старые блоки
Алексей
ну да, тут как бы я уже простился с этими файлами. просто интересно поковыряться попробовать
Алексей
если кто подскажет куда еще можно копнуть
Vladislav
По виду это очень похоже, что файлы писались в пустоту, у меня такое было, когда я убил пул лежащий под этим датасетом.... Вообще.... Хм, первая мысль действительно, что по тому пути где писались файлы сейчас лежит не тот пул
Alisa
Можете подсказать как корректно средствами zfs создать массив 2N+2, т.е. RAID10 и 2 диска резервных активных (желательно как парити). Про вариант один на один и так в курсе - но это не совсем корректно.
Fedor
И в пул, и в низлежащую папку в фс
Алексей
Попробую спасибо
Alexey
Можете подсказать как корректно средствами zfs создать массив 2N+2, т.е. RAID10 и 2 диска резервных активных (желательно как парити). Про вариант один на один и так в курсе - но это не совсем корректно.
zpool create -o ashift=12 tank mirror /dev/disk/by-id/[disk1] /dev/disk/by-id/[disk2] mirror /dev/disk/by-id/[disk3] /dev/disk/by-id/[disk4] spare /dev/disk/by-id/[disk5] /dev/disk/by-id/[disk6] но лучше такой тип пулов не создавать.
Alexey
это неразумное использование дискового пространства и устройств.
Alexey
https://translated.turbopages.org/proxy_u/en-ru.ru.37850fbe-675fc8f1-a9c9f742-74722d776562/https/docs.oracle.com/cd/E18752_01/html/819-5461/gayrd.html
Alisa
zpool create -o ashift=12 tank mirror /dev/disk/by-id/[disk1] /dev/disk/by-id/[disk2] mirror /dev/disk/by-id/[disk3] /dev/disk/by-id/[disk4] spare /dev/disk/by-id/[disk5] /dev/disk/by-id/[disk6] но лучше такой тип пулов не создавать.
Будут ли spare автоматически использоваться при потере какого-то из зеркальных дисков или надо будет вручную делать? (речь при такой конфигурации) Если например добавить autoreplace=on?
Alexey
Должно
Nikita
Будут ли spare автоматически использоваться при потере какого-то из зеркальных дисков или надо будет вручную делать? (речь при такой конфигурации) Если например добавить autoreplace=on?
Во FreeBSD раньше для этого нужно было включать zfsd_enable. Опыты на тестовом массиве дадут точные и актуальные для вашей системы ответы.
Nikita
Ждем пояснительную бригаду...
Алексей
А что было? Что случилось?
Писалось мимо датасета прям в пул. А после ребута датасет смонтировался поверх данных
Станислав
Писалось мимо датасета прям в пул. А после ребута датасет смонтировался поверх данных
Ох и веселье. Кстати, уже всплывала подобная история в чате. Когда новый датасет отображался как примонтированный, а по факту данные не туда улетали
Khajiit
Опыт — штука такая, он приходит сразу после того, как был нужен… Собственно, почему я делаю chattr +i на каждый mountpoint
Александр
Писалось мимо датасета прям в пул. А после ребута датасет смонтировался поверх данных
А, красивый вариант)) Но по zfs list -s used можно догадаться о многом
Алексей
А, красивый вариант)) Но по zfs list -s used можно догадаться о многом
да ну я как бы видел после ребута что used 96K
Алексей
а до ребута я не смотрел — работало же
Александр
да ну я как бы видел после ребута что used 96K
Т.е. по объему понятно, что данные не пропали. Остается, как обычно, пустяк, сообразить, где...
Алексей
Т.е. по объему понятно, что данные не пропали. Остается, как обычно, пустяк, сообразить, где...
непонятно т.к. я не знал сколько там точно данных, но хотя конечно мог бы сообразить по разнице суммы юзеда в датасетах с юзедом в пуле , но считать было лень уже ночью
𝚜𝚎𝚗𝚜𝚎𝚖𝚊𝚍
А как так получилось то?..
Vladislav
В процессе когда ты видишь пустую папку - не всегда есть возможность сходу общую картину увидеть
Vladislav
А как так получилось то?..
Создался пул, не замаунтился в систему
Mikhail
Добрый вечер! Столкнулся с проблемой, при сканировании каталогов поиском zfs падает с ошибкой ядра и сервер перезагружается. TruenasElectricEel-24.10.0.2 Linux 6.6.44 zfs2.2.99-1 Подскажите пжл куда копать?
Mikhail
Да
Mikhail
Но на реплике на железке тоже самое
Ivan
Но на реплике на железке тоже самое
https://forums.truenas.com/t/truenas-nfs-random-crash/9200/28