LordMerlin
А, блин, точно же((
LordMerlin
Диски САС. Так бы бэды заремапить и дальше бы полетел. А так он сука все время с ошибкой чтения в дегрейдел вываливается.
Vladislav
А вариант взять 2тб диск 7200 сата, перегнать на него пул и просто пересоздать пул рассматривали как выход из ситуации?
Vladislav
в это-то время 2тб и сдохнет )
Зеркало, к тому же, очень сомневаюсь, что новый 2тб сдохнет за 3-5 часов
central
в это-то время 2тб и сдохнет )
старый то останется
Vladislav
старый то останется
Он про момент когда пул удалили и данные льются с 2тб на новый массив
Shaker
Всем доброго вечера. Что вы обычно ожидаете от команды "zpool remove tank mirror-1", зная, что зеркал там еще штук 20, диски все одинаковые, и пул на половину свободен ? Я верно понял, что оно должно эвакуировать данные с этого зеркала на свободное место, и по завершении удалить mirror-1 ?
Shaker
Команда вызвала "VERIFY(list_is_empty(&lwb->lwb_itxs)) failed, PANIC at zil.c:585:zil_free_lwb()", и остановку работы пула.
Ivan
@neurox
Shaker
Оно должно удалить пул tank со всем что внутри
Я был уверен, что это zpool destroy делает. Судя по zpool-remove пул должен выжить )
Shaker
Привет! Напиши в ЛС линк, переправляю сюда
Да там ссылка на ман с openzfs github, думаю его тут и так все знают)
Shaker
Команда вызвала "VERIFY(list_is_empty(&lwb->lwb_itxs)) failed, PANIC at zil.c:585:zil_free_lwb()", и остановку работы пула.
Все-же это нестандартное поведение для zpool remove, нет ? Кто встречался ?
Vladislav
А, прочитал destroy, сори
Но в любом случае, данные с зеркала Вам никто не эвакуирует сам. Если это cache\log vdev то он просто исчезнет Если это mirror в пуле с данными - welp, это закончится остановкой массива
George
Команда вызвала "VERIFY(list_is_empty(&lwb->lwb_itxs)) failed, PANIC at zil.c:585:zil_free_lwb()", и остановку работы пула.
конечно ответ нештатный, пул после ребута хотябы импортируется? по багам искать надо
Shaker
конечно ответ нештатный, пул после ребута хотябы импортируется? по багам искать надо
Нет, как живой, только не живой. mirror-1 impacted. Надежда на import -F.
Shaker
Но в любом случае, данные с зеркала Вам никто не эвакуирует сам. Если это cache\log vdev то он просто исчезнет Если это mirror в пуле с данными - welp, это закончится остановкой массива
Тогда понятно. Вот это только смущает: Removing a top-level vdev reduces the total amount of space in the storage pool. The specified device will be evacuated by copying all allocated space from it to the other devices in the pool. In this case, the zpool remove command initiates the removal and returns, while the evacuation continues in the
George
Но в любом случае, данные с зеркала Вам никто не эвакуирует сам. Если это cache\log vdev то он просто исчезнет Если это mirror в пуле с данными - welp, это закончится остановкой массива
zpool remove не должен приводить к не рабочему пулу, либо должен штатно эвакуировать данные на соседние (это через фиктивный vdev сделано), либо отказ
Shaker
Т е судя по доке данные-таки эвакуируются. Похоже баг. module v0.8.3-1ubuntu12.14, ZFS pool version 5000, ZFS filesystem version 5
George
zfs -V в студию
George
99% баг разных версий модулей ядра и юзерспейса
Shaker
zfs -V в студию
zfs-0.8.3-1ubuntu12.14 zfs-kmod-0.8.3-1ubuntu12.14
Shaker
стоп. А когда Вы ставили систему?
Не так давно, недели три назад.
Shaker
import -F вернул в жизнь impacted mirror
Shaker
Но баг все равно есть, не приятный.
Vladislav
Кстати, в чём анекдот Ubuntu называть свою версию 0.8.Х?
Vladislav
Когда есть прекрасный репозиторий jonathonf?
Vladislav
Как фс. ZIL на mirror nvme
Тогда уберём мою фразу про эвакуацию данных, я слишком привык к выдаче zfs тома наверх
Vladislav
Тогда понятно. Вот это только смущает: Removing a top-level vdev reduces the total amount of space in the storage pool. The specified device will be evacuated by copying all allocated space from it to the other devices in the pool. In this case, the zpool remove command initiates the removal and returns, while the evacuation continues in the
"So, only use the zpool remove command to recover a pool when you have added another device to the pool accidentally." "consider creating a new pool and then using the zfs send and zfs recv commands to migrate the data to the new pool."
Vladislav
Это откуда ?
С документации оракла по zfs
Vladislav
По команде "zfs remove tank mirror-1"
Shaker
да, читал
Shaker
Но там явно видно, что при удалении запускается resilver, и все живо. В общем, баг есть. Это в ubuntu какая-то тестовая альфа zfs версия, и есть реализация более стабильная, или оно просто так работает ?
Ivan
Не так давно, недели три назад.
зачем такую древность ставить ?
Vladislav
зачем такую древность ставить ?
Это последняя версия в репозитории Ubuntu по умолчанию
George
С документации оракла по zfs
у оракла другая реализация zpool remove
George
нежели у openzfs
Ivan
Vladislav
нежели у openzfs
буду знать
Vladislav
Когда есть прекрасный репозиторий jonathonf?
Я вообще отсюда ставлю, самое свежее что может быть https://launchpad.net/~jonathonf/+archive/ubuntu/zfs
George
Но там явно видно, что при удалении запускается resilver, и все живо. В общем, баг есть. Это в ubuntu какая-то тестовая альфа zfs версия, и есть реализация более стабильная, или оно просто так работает ?
у убунты очень странная ситуация последние пару лет, zfs как бы в штатной поставке но они нормально версию не обновляют и страдают расхождением версии в ядре и в юзерспейсе
George
так что даже если баг есть, то его стоит воспроизвести на 2.1 если репортить созреете и репро будет
Shaker
Это уже второй неприятный баг с этой версией. До этого была боль с динамическим размером ARC. Он внезапно решает уменьшиться, не успевает, и массив замирает на более 2 минут. Потом приходит в чувства. При статичном, все ок.
Shaker
Какая-то дичь
LordMerlin
А вариант взять 2тб диск 7200 сата, перегнать на него пул и просто пересоздать пул рассматривали как выход из ситуации?
Рассматривал, как крайний случай. И диска такого нет за просто так, и мало ли что сбойнет в процессе. Вот как ниже написали.
Roman
у убунты очень странная ситуация последние пару лет, zfs как бы в штатной поставке но они нормально версию не обновляют и страдают расхождением версии в ядре и в юзерспейсе
Версия 0.8.3 - это 20.04 убунта. Зачем её ставить, когда есть 22.04 с свежим zfs? И каноникал, как минимум в 0.8.3, много чего бэкпортировали из версии 2
Vladislav
Версия 0.8.3 - это 20.04 убунта. Зачем её ставить, когда есть 22.04 с свежим zfs? И каноникал, как минимум в 0.8.3, много чего бэкпортировали из версии 2
0.8.3 всё равно от 2020 года версия, смысл вообще её использовать, если можно поставить 2.1.5 P.S. 22.04 ещё не совсем поддерживается многим софтом не из репо Ubuntu
Shaker
Да, так точно. Поэтому мы на 22.04 и не переходим
Shaker
Я вообще отсюда ставлю, самое свежее что может быть https://launchpad.net/~jonathonf/+archive/ubuntu/zfs
В общем ставиться отсюда в ubuntu 20.04 это нормальная практика, максимально приближенная к стабильной ?
Δαρθ
Да, так точно. Поэтому мы на 22.04 и не переходим
а можно подробнее что не поддерживает 2204? так для общего развития спрашиваю
Ivan
Чем лучше ? 11 ?
больше выбора версий zfs. пакет готовят мейнтейнеры. дебиан в целом более предсказуемый.
Δαρθ
и работает в убунте, вместе с dkms
Shaker
а можно подробнее что не поддерживает 2204? так для общего развития спрашиваю
А не я за это отвечаю, у нас много админов, и пока все косо смотрят на 22.4 . Подробностей не знаю. У нас много завязано на cuda / rdma / kubernetes, может с этим связано. Так-то сервисы все в контейнерах, но что-то ключевое еще не понятно.
Shaker
Я бэкапами занимаюсь ) Часть в ceph, часть в zfs, часть на ленте. Пока что лента - самое стабильное, что есть )
Shaker
Кстати, а кто-то пробовал PMEM для ZIL ? Как оно работает ? В каком режиме ?
Δαρθ
спс
Nick
А кто-нибудь знает насколько глубока сейчас интеграция zfs и nvme? Например, вот команда выдает root@localhost:~# nvme id-ns -H /dev/nvme0n1 Metadata Size отличный от нуля че-то даёт для zfs? Есть кто-нибудь в теме nvme? Для удобства pastbin и скриншот https://pastebin.com/6qcDc0jw
оно несколько относительное. Например, у нас есть несколько intel p4510, и вот все они пишут что 4096 bytes - Relative Performance: 0 Best но по факту стабильно быстрее (на 0.5-3 процента) работают если форматировать в 512. Удивился, не понял почему так, оставил всё в 512
Nick
https://aliexpress.ru/item/1005001344675103.html?gatewayAdapt=glo2rus&sku_id=12000015763998421&spm=a2g0s.12269583.0.0.5c417190XdCjqE
А есть аналогичные PCIe4.0 ? Можно даже на два диска, но на 110
Vladislav
А есть аналогичные PCIe4.0 ? Можно даже на два диска, но на 110
Для 4.0 обычно бифуркация есть на консьюмерских материнках, а тут и asus hyper за 4к поддерживает 4.0 Спросил у продавца, но, учитывая, что Broadcom только в 20-м году релизнул чип для этого, а в Китае жёсткие меры по ковиду были - сомнительно, что плата уже есть
Nick
а нужна ли там бифуркация, если на два девайса?