Владимир
в доке
Ivan
т.е. сейчас надо удалить диск, а потом добавить его раздел?
чет я не уверен что сейчас его можно просто так удалить без потери данных на пуле.
Сергей
нет еще :)
Владимир
Просто понедельник день, голова должна быть самая чистая после выходных, а ты прости троишь
Владимир
нет еще :)
так пойди выпей чайку и передай задачу коллеге пока не напортачил
Сергей
вся надежда на бэкап
Сергей
пока он еще отностительно актуален хочется доделать
Владимир
вся надежда на бэкап
тебе надо удалить диск из пула, дождаться пока данные которые на нём были перераспределятся и далее добавить его уже согласно документации чтобы конвертнуть в миррор
Vladislav
Я незнаю разруливает ли это как-то зфс
Разруливает по меткам в заголовке ФС (guid)
Владимир
Разруливает по меткам в заголовке ФС (guid)
ну да, уже просвятили, но на практике я ещё не проверял)
Сергей
тебе надо удалить диск из пула, дождаться пока данные которые на нём были перераспределятся и далее добавить его уже согласно документации чтобы конвертнуть в миррор
а зфс случайно не даст удалить второй диск, если, например, там места не хватит после распределения?) или об этом в процессе будет известно?))
Владимир
именно так, но у него то места хватит
Сергей
яб проверил на всякий случай 😃
Владимир
так что там проверять если он его только добавил туда
Владимир
как вариант туда ещё вообще ничего не писалось может))
Vladislav
ну да, уже просвятили, но на практике я ещё не проверял)
Собственно, так он и пересобирает рейд при импорте в другой системе
Владимир
импортирует)
Vladislav
импортирует)
Иногда и пересобирает, но да
Владимир
Если нет autoexpand, то у него пул ещё старого размера
это же про изменение размера раздела вроде
Владимир
а не добавление новых
Сергей
root@pve:~# zpool remove rpool sda cannot remove sda: no such device in pool
Vladislav
Хм, а возможно
Vladislav
а не добавление новых
Недостаток, того, что я работаю только с zVol
Владимир
Владимир
root@pve:~# zpool remove rpool sda cannot remove sda: no such device in pool
https://docs.oracle.com/cd/E19253-01/820-0836/gayrd/index.html
Владимир
попытка номер 2
Владимир
там всё есть
Владимир
прекрати уже пожалуйста вводить команды на абум
Сергей
это от зеркала и с detach такая же картина
Владимир
это от зеркала и с detach такая же картина
значит открой доку и найди праивльную ссылку
Владимир
это от зеркала и с detach такая же картина
и на сколько мне известно, команда не отличается
Владимир
для простых дисков команда та же
Владимир
там только ZRAID1/2 нельзя так
Владимир
вроде
Vladislav
Потом можно попробовать по guid если ошибка сохраняется
Владимир
zpool --help
Сергей
тогда обьясните простую вещь, в чем разница между detach и remove?
Владимир
root@pve:~# zpool remove rpool sda cannot remove sda: no such device in pool
а что в этот момент показывает zpool status
Сергей
никуда не делся
Сергей
root@pve:~# zpool status rpool pool: rpool state: ONLINE scan: scrub repaired 0B in 2h3m with 0 errors on Sun Nov 20 18:58:01 2022 config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 sdb2 ONLINE 0 0 0 sda ONLINE 0 0 0
Владимир
тогда обьясните простую вещь, в чем разница между detach и remove?
ну судя по логам именно ремув удаляет одиночек, но меня или глючит или я детачем это делал
Сергей
или сначала сделать ему offline?
Владимир
или сначала сделать ему offline?
на живую это можно делать
Сергей
детач тоже не удаляет
Владимир
главное диск сразу не вынать чтобы успел перестроить данные
Владимир
детач тоже не удаляет
может загвоздка в sda
Владимир
я работаю с дискID
Владимир
хотя по логике не должно
Владимир
в статусе же он так называется
Сергей
я вот тоже к этому прихожу
Владимир
но я ниразу не заводил таким способом, с дискID точно всё норм
Denyd
Всем привет! После замены части дисков в raidz1 пришлось часть коруптнутых файлов поубивать, но остались следующие записи: errors: Permanent errors have been detected in the following files: <0x13f>:<0x1> <0x74>:<0x1> <0x3a6>:<0x1> Подскажите где это искать? # zpool version zfs-2.1.4-FreeBSD_g52bad4f23 zfs-kmod-2.1.4-FreeBSD_g52bad4f23
Сергей
а вообще, вторая ссылка в гугле) было бы быстрее, чем сюда спрашивать https://icesquare.com/wordpress/zfs-errors-permanent-errors-have-been-detected-in-the-following-files/
Denyd
а вообще, вторая ссылка в гугле) было бы быстрее, чем сюда спрашивать https://icesquare.com/wordpress/zfs-errors-permanent-errors-have-been-detected-in-the-following-files/
спасиб! ща поганяю. Ну не предположил, что гугл настолько компетентен, даже в кексовых именах файлов
Denis
Коллеги почитал чат немного как итог draid я так понял еще особо никто не юзал? Смысл вопроса под файлопомойку планируется 6шт 8тб дисков 7ой под spare. Есть возможность пару ссд добавить под кэш. Вот и задумался по старинке z1 или z2 или все же draid пробовать? В теории есть немного времени на тесты.
Vladislav
that's it
Vladislav
Производительность +- погрешность в 5%
Denis
Draid экономит время на restore
Это понятно, стабильность его интересна
Denis
Производительность +- погрешность в 5%
По сравнению с z1 судя по документации
Denis
поигрался с draid на демо стенде, ну в целом прикольная штука пока больше зашел draid1 масштабируется заменой дисков, отказоустойчивость равна количеству указанных hotspare производительность не удалось потестировать полноценно, но заливая данные на массив он ребилдился довольно быстро. кэш и лог подключается а вот авторесайз сработал только после того как пул экспортировал затем импортировал. Использовать удалось только 80% свободного пространства.
Denis
draid2 тестировал на пустом пуле и что интересно пул собирал из 7 дисков 2 в hotspare при этом отключил 4 диска пул был живой
Сергей
Доброе утро. Продолжаем развлекаться со вчерашней задачей. Напомню, криво добавился один жёсткий диск и вместо зеркала мы получили страйп. Два вопроса имею я теперь. Как бы сделать бэкап теперь? Образ созданный акронисом будет ни о чём.
Сергей
И что делать дальше? Превратить все это в десятый рейд?
riv
Доброе утро. Продолжаем развлекаться со вчерашней задачей. Напомню, криво добавился один жёсткий диск и вместо зеркала мы получили страйп. Два вопроса имею я теперь. Как бы сделать бэкап теперь? Образ созданный акронисом будет ни о чём.
zfs snap -r poolname@myfirs-nsapshot zfs send -nvR poolname@myfirs-nsapshot (покажет обзем бекапа) zfs send -R poolname@myfirs-nsapshot | ssh root@backup-host "zfs receive backup-pool/backup-dataset/my-super-incremental-backup" дослать инкремент zfs send -nvRI poolname@myfirs-nsapshot poolname@second-nsapshot (покажет объем инкремента и его состав) (тут будет: ха-ха, всего 1 гибобайт!) zfs send -RI poolname@myfirs-nsapshot poolname@second-nsapshot | ssh root@backup-host "zfs receive backup-pool/backup-dataset/my-super-incremental-backup"
riv
Я понимаю
Не похоже, правда. Очевидно, вы используете самое кривое решение.