Александр
Второй диск жив. И, еще раз, я наблюдаю в конфиге - "хранить 24 месячных снапшота", и все 24 месячных снапшота есть. За весь 2018-2019 год
Александр
Т.е. это выглядит примерно как "два года назад зеркало расцепилось и один из дисков не обновлялся"
Александр
сейчас надеюсь найти тот диск, который сняли при замене
d
Александр
Но при этом zpool status показывал, что оба диска на месте!
Александр
Такое вообще кто-нибудь отмечал уже?
d
d
может там вечный ресильвер шёл?
Александр
Такое технически возможно?
d
дня три
Александр
Нет. Это не "долгий ресильвер". Ресильвер пробежал моментально
Александр
George
замену видимо через экспорт или ребут делали также? т.к. прямо "на лету" такой "откат" всё бы разнёс моментально
Александр
Выкл - сняли диск - поставили диск - вкл - разбили диск на разделы - zpool replace битого диска на новый
George
мб после ребута его и импортнули просто
Александр
Александр
Но, блин, у меня не сохранилось скриншотов - но там было два пула.
Александр
system и data
Александр
Не сохранился. Ждем ответа от хетцнера
George
Александр
Ну, то есть, если они не успели выкинуть побившийся диск, то можно попробовать его реанимировать
George
ну пока выглядит всё именно так, что после ребута импортнулся пул старинный откудато, откуда он взялся и тд конечно интересно. Вероятность что под якобы живым миррором zfs ничего не менял и там оказались данные от 19го года полностью живые - блин, сложно предположить даже)
George
предполагаю, что может влиять человеческий фактор со стороны хетзнера, в 19м году замена дисков не производилась ли?
Ivan
просто первый попавшийся дергают
Александр
Ivan
https://pve.proxmox.com/wiki/ZFS_on_Linux
Александр
Продолжаем приключения
Старый диск нашли - поставили на место - zpool import его не видит. Возможно, проблема в дублирующейся gpt-метке
Fedor
Как-то потерял данные из-за контроллера - он у себя все хранил но на диски не флюшил, и датасет был небольшой. Вот на такой случай прямой доступ к дискам и надо давать.
Fedor
Это было не зфс, а уфс - но симптомы те же
Александр
Александр
Короче, это. Пока у меня голова не лопнула. Кто подскажет, как сравнить с помощью zdb метаданные разных устройств на пуле?
Александр
О как...
Fedor
Контроллер сбойнул
Александр
У меня там контроллер тупой, как валенок. Банальный SATA
Александр🇷🇺
Александр
Так. Ну подтянул я старый диск, и там, разумеется,
[root@rescue ~]# zpool import
pool: data
id: 1403214855
state: FAULTED
status: The pool was last accessed by another system.
action: The pool cannot be imported due to damaged devices or data.
The pool may be active on another system, but can be imported using
the '-f' flag.
see: http://illumos.org/msg/ZFS-8000-EY
config:
data FAULTED corrupted data
mirror-0 DEGRADED
166656631 UNAVAIL corrupted data
6418263000783036330 OFFLINE
George
Александр
Тот же.
George
Тот же.
мб zpool history что кстати интересного про 19го года пул скажет
Александр
Тот пул я уже грохнул - пытаюсь реанимировать данные со сбойного диска. Насколько я понимаю, никакой history ничего не вынул бы с того, что пересобрался, он слишком жестко в прошлом
Александр
И разница в номере последней транзакции соответствующая
Александр
Для сервера с не более чем 6 дисками аппаратный контроллер, на мой взгляд, какого-либо смысла не имеет
Vladislav
особенно, когда выясняется, что в ЗИП контроллер имеет старую древнюю прошивку
Vladislav
это решается сохранением скриншотов в журнале первоначальной настройки
Vladislav
ну-ка, ну-ка, как сохранить конфиг ZFS пула и не забыть про положение и размеры разделов блочных устройств ?
George
благо дело для zfs нужно только указать блочное устройство а пул из набора он уже сам соберёт
Vladislav
ну и отсуствует сама программа, которая бы по существующему пулу делали текстовый конфиг, чтоб по нему сконфигурировать идентично пул на другой машине
Vladislav
George
Sergey
Вот по поводу 2го случая мне это больше всего в зфс не нравится, нельзя задать сколько зарезервировать, на несколько тб и гига не жалко, зато проблем не будет, выход тут разве что делать на разделах
Vladislav
Поэтому я и повторил вопрос годичной давности о существовании такого скрипта-утилитки.
George
George
Sergey
Vladislav
George
Sergey
Vladislav
вы в итоге не созрели?)
мало устройств, на которых можно тестить, и с новомодными SSD вопросов прибавилось
George
Не, сам zpool create
root@ubuntu-basic-1-1-10gb:/home/ubuntu# fdisk -l /dev/vdc
Disk /dev/vdc: 2 GiB, 2147483648 bytes, 4194304 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
root@ubuntu-basic-1-1-10gb:/home/ubuntu# zpool create tpool /dev/vdc
root@ubuntu-basic-1-1-10gb:/home/ubuntu# fdisk -l /dev/vdc
Disk /dev/vdc: 2 GiB, 2147483648 bytes, 4194304 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 4B6FA533-40BE-0740-9168-FA14C3F41417
Device Start End Sectors Size Type
/dev/vdc1 2048 4175871 4173824 2G Solaris /usr & Apple ZFS
/dev/vdc9 4175872 4192255 16384 8M Solaris reserved 1
George
/dev/vdc9 4175872 4192255 16384 8M Solaris reserved 1
Vladislav
whereis zpool
Sergey
Number Start End Size File system Name Flags
1 1049kB 1920GB 1920GB zfs-9bac96ea688302c8
9 1920GB 1920GB 8389kB
George
whereis zpool
не понял зачем,
zpool -V
zfs-2.0.0-rc1_254_g83b698dc4
zfs-kmod-2.0.0-rc1_254_g83b698dc4
Sergey
как пример
Vladislav
в новой версии zfs добавили новую фичу? похвально
Sergey
Vladislav
неа